Er Google virkelig så dumme?
Jeg er ofte blevet stillet dette spørgsmål: Er Google virkelig så dumme?
Ofte stilles spørgsmålet af frustrerede udviklere, der ikke helt tror på det jeg siger, når jeg fortæller, hvordan Google faktisk virker.
Jeg indrømmer, at det godt kan være svært at gennemskue Google, og med Googles egne påstande om hvor fantastiske de er, kan det være svært at tro på, at det ikke altid er tilfældet.
Så er Google virkelig så dumme? Det korte svar er: Ja. Sådan kan det i hvert fald godt virke, hvis man ikke lige ved bedre. Et lidt mere nuanceret svar kan du finde i resten af dette indlæg, for naturligvis er det ikke helt så enkelt …
Jamen, Google siger jo, at vi skal …
Sidste gang jeg hørte denne indledning til en bemærkning var i en diskussion med nogle ellers fornuftige og kompetente udviklere fra et større dansk webbureau.
Udviklerne var øjensynligt frustreret over mine “påstande” om, at Google ikke altid fortolker CANONICAL-tags korrekt. De argumenterede med, at det jo netop er den standard Google anbefaler, for at løse visse former for Duplicate Content.
Hvorfor ville Google sige det, hvis det ikke var sandt, spurgte de – som mange andre før dem. Og det er bestemt et godt spørgsmål.
Men forklaringen er sådan set meget enkel.
Google taler ikke direkte usandt, når de f.eks. siger at CANONICAL-tags kan løse en række problemer med Duplicate Content. Det de bare ikke fortæller er, at hverken Google selv, andre søgemaskiner – eller du og jeg, er perfekte.
Shit happens – og når det gør betaler du prisen!
Jeg har 3 gange indenfor de sidste 18 måneder oplevet støre internationale sites, der have implementeret CANONICAL-tags helt perfekt, og alligevel fejlede fortolkningen af dem i Google.
Shit happens. Sådan er det bare. Der sker fejl. Også hos Google, selvom deres til tider lidt for selvfede markedsføring giver et andet indtryk. Alle kan lave fejl, og når man som Google skal håndtere flere tusinde milliarder URL’er så kan det ikke undgås at der går lidt galt med nogle af dem.
Hvis du en dag får lejlighed til det, så spørg Google om de kan garantere at de aldrig laver fejl i f.eks. fortolkningen af CANONICAL-tags. Jeg kender godt svaret. Naturligvis kan de ikke det.
Problemet er så, at når det går galt så er det dig som betaler prisen!
Google kompenserer dig (naturligvis) ikke for de tab det måtte påføre dig og din virksomhed, hvis f.eks. fortolkningen af CANONICAL-tags på dit website pludselig en dag fejler og det fører til en uheldig filtrering af en masse af dine sider.
XML-sitemaps, GEO-targeting og Hreflang
Det er ikke bare CANONICAL-tags der kan være problemer med. XML-sitemaps, GEO-targeting og Hreflang er andre gode eksempler på tekniske løsninger, som Google stort set ubetinget anbefaler, som løsningen på konkrete problemer.
De “glemmer” desværre bare at nævne, at de nogle gange fejler i fortolkningen af disse standarder. Og hvad endnu værre er, at andre løsninger ofte kan give langt bedre resultater for dig.
Tag nu f.eks. XML-sitemaps, som Google siger stort set altid er en fordel at have, og at du aldrig vil blive straffet for brugen af. I virkelighedens verden er det ikke så enkelt.
Jeg har netop lige siddet med en sag for et meget stort dansk website, der har brugt XML-sitemap på en måde, der reelt kom til at dække over nogle ekstremt seriøse indekseringsproblemer.
De blev ikke direkte straffet for brugen af XML-sitemap, men havde de undladt det havde de sandsynligvis meget tidligere opdaget de fejl, jeg så fandt frem til, hvilket jeg vurderer ville have givet dem mindst 2-300.000 ekstra besøg fra Google hver måned.
Teknisk set er det naturligvis ikke en straf, men det kan godt lidt føles sådan, når man går glip af nogle millioner motiverede besøg hvert år.
GEO-targeting er et andet godt eksempel på, at det Google siger ikke helt stemmer overnes med virkeligheden. De har ved flere lejligheder udtalt, at der ikke er noget problem ved, at du publicerer dit website på flere lokale domæner og redirecter folk hen til den rigtige version. De skal nok, siger Google, finde ud af at forstå det.
Jo tak, men konsekvensen, hvis du følger det “gode råd” er, at du med næsten statsgaranti vil opnå en forbandet dårlig indeksering med deraf følgende ringere mulighed for gode rankings. Google skal nok overleve det, men det er altså ikke i din bedste interesse.
Til slut vil jeg lige nævne Hreflang-tags, som Google også, næsten helt ubetinget, anbefaler at man bruger på flersprogede websites. Her er problemet både at Google kan misfortolke disse tags, men også at standarden kan være meget svær, at implementere korrekt og at der derfor ofte sker fejl.
Løs problemerne på serveren – ikke i klienten!
Fælles for de fleste af ovenstående problemer er, at det er det jeg kalder “band aid solutions”. Det er et plaster på såret. Det er “udvendige” løsninger, der ikke som sådan fikser dine problemer, men blot lapper på dem.
I reglen er det bedst, hvis du kan løse dine tekniske udfordringer på serveren, frem for i klient laget. Som illustreret nedenfor, med et slide fra en præsentation jeg lavede i London sidste år, har du på serveren fuld kontrol over hvad der sker. I klientlaget er du afhængig af en korrekt fortolkning og det sker bare ikke altid. Shit happens.
Niels Klint skriver
Jeg mistænker oprigtigt Google for at mele deres egen kage, når de eks. plæderer for, hvor vigtigt det er, at hjemmesider der er optimeret til at opnå bedste pageSpeed opnår en bedre ranking.
Mit indtryk er, at nogle af deres anbefalinger mere går ud på, at reducere belastningen af deres servere, end at hjælpe os til en bedre ranking.
Mikkel deMib Svendsen skriver
Googles fokus har altid, og vil altid være, deres søgebrugere og deres egen forretning. Naturligvis. De har jo ingen andele i hverken din eller min 🙂
Googles opgave er ikke, at markedsføre vores virksomheder gratis i de organiske resultater. Det er at lave en god søgemaskine.
Når det så er sagt, så er PageSpeed faktisk en god måde at måle det, som mange brugere oplever som et godt website. Der måles jo ikke hastighed, men optimeringsgrad. Var det første tilfældet ville du måske have mere ret 🙂