Hvor mange procent identisk tekst skal der til, før Google opfatter noget som ”duplicate content”?
Så enkelt kan det ikke stilles op. Søgemaskinerne udregner det ikke som en simpel procent, og det er ikke kun selve indholdet de ser på. De vurderer også i hvilken kontekst det optræder.
Søgemaskinerne opdeler indholdet i små bidder og vurderer dem forskelligt. Indhold der går meget igen – som f.eks. navigation, footer, header osv. – ser de ofte helt bort fra i vurderingen af den enkelte side. Det er således ikke nok, at tage for eksempel den første halvdel af en artikel og så klaske den sammen med anden halvdel fra en anden. Der er meget stor risiko for, at søgemaskinerne vil identificere de to blokke af tekst som ens, og så se bort fra enten den ene del, den anden del eller begge to.
Derudover ser søgemaskinerne også meget på links til siden, og det website som siden optræder på. Hvis to sider har næsten ens tekster, men deres link-profiler er helt forskellige, så er det ikke sikkert, de vil blive opfattet som duplicate content af søgemaskinerne.
Dette gælder kun, hvis det er en eller nogle få sider fra to sites, der er ens. Hvis alle, eller stort set alle, siderne er helt ens, så vil det som regel ende med, at det ene eller begge sites bliver helt usynligt i søgemaskinerne, uanset hvor forskellige links til de to sites er.
Skriv en kommentar