Google Evergreen JavaScript crawling – et skridt i den rigtige retning, men langt fra godt nok
Det har altid været en stor udfordring for Google – og alle andre søgemaskiner, at crawle og indeksere JavaScript indhold på websites.
Med den nylige opdatering af Googles crawler, under navnet “Evergreen” er det blevet meget bedre, men spørgsmålet er om det er godt nok – om du nu slipper for at bekymre dig om de mange udfordringer JavaScript indtil nu har givet os i forhold til SEO?
Det vil jeg se lidt nærmere på i dette indlæg …
Det korte svar på JavaScript SEO …
Lad mig starte med at svare helt kort på det første spørgsmål: Nej! Udfordringerne med håndtering af JavaScript i forhold til SEO er bestemt ikke et overstået kapitel. Langt fra!
Omend den nye version af Googles crawler: Evergreen på nogle punkter bestemt er en forbedring, så står vi stadig tilbage med de fleste af de fundamentale problemer vi altid har haft.
Men lad os starte med at se på de positive nyheder …
Google Evergreen – opdateret til Chrome 74
Indtil for ganske nyligt blev JavaScript eksekveret af Google med en meget gammel version af deres JavaScript parser – helt tilbage fra Chrome 42. Det betød at mange af de nyere JavaScript funktioner slet ikke var understøttet.
Med den nye Google crawler – Evergreen, er der sket to vigtige ting:
For det første er JavaScript parseren opdateret til den nyeste version, men hvad der måske er endnu vigtigere, så vil den fremadrettet blive opdateret meget hurtigere med de nye versioner der kommer.
Så langt så godt …
Google eksekverer ikke JavaScript med det samme
Alle problemer med håndtering af JavaScript i forhold til SEO er som sagt ikke løst bare fordi Google har opdateret JavaScript parseren til en nyere version.
En af de store problemer er fortsat, at Google ikke eksekverer JavaScript med det samme, når de crawler et website. Hvis der er JavaScript på siden sættes det i kø til senere eksekvering.
Det betyder, at en side med JavaScript i første omgang kun vil blive indekseret med det indhold og links som kan hentes direkte ud af HTML-koden. Hvis der er indhold og links, som kun kan ses når JavaScript eksekveres kommer det først med senere. Måske …
Det sidste lille “måske” er vigtigt. For ikke alene kan der gå op til flere uger fra Google har crawlet dine sider til de eksekverer dine javaScript, men der er ingen garanti for, at de ender med overhovedet at gøre det.
Problemet for Google er, at det koster ekstremt mange flere resurser at eksekvere JavaScript end at læse indholdet i HTML-filer. Og det er langt fra altid at det vil resultere i indhold der øger kvaliteten af deres indeks.
Så jeg tror ikke vi skal regne med at Google nogensinde kommer til, at eksekvere al JavaScript, gøre det i real-time eller overhovedet eksekvere al JavaScript. I hvert fald ikke i de næste mange, mange år.
Googlebot er ikke en rigtig browser
Selvom Google med deres crawlere – GoogleBot, forsøger i så høj grad som muligt at imitere en almindelig browser, så er det langt fra en helt almindelig browser, sådan som almindelige mennesker bruger den.
For eksempel scroller Googlebot ikke på siderne, som almindelige brugere gør, og du kan derfor ikke forvente at JavaScript event-handlers der er afhængige af det vil blive eksekveret. De klikker heller ikke på knapper og formularer fuldt ud og eksekverer derfor ikke nødvendigvis de scripts der kommer ud af det.
Google Evergreen bruges ikke overalt endnu
Googles crawlere bruges mange steder – ikke kun i forbindelse med crawling til deres søgemaskine. Den bruges også i forbindelse med Google Ads, og deres mange tjenester som PageSpeed Insight og Mobile Friendly testen.
Men de fleste af disse tjenester er ikke skiftet til den nye Google Evergreen endnu og du kan derfor godt opleve, at disse tjenester fortsat har de samme udfordringer med JavaScript som tidligere.
Hvad er løsningen på JavaScript SEO?
På trods af at det bestemt er en stor – og god, nyhed at Google (endelig) har fået opdateret deres crawler, så den understøtter flere JavaScript funktioner, så ændrer det faktisk ikke ret meget på mine tidligere anbefalinger.
Hvis du ønsker en stabil, sikker og hurtig indeksering af dit website skal du stadig sørge for, at alt det vigtigste indhold – tekster, billeder og links, indlæses via almindelig HTML. Kun på den måde kan du være helt sikker på, at det indekseres.
Hvis dit website er bygget på et af de mange Javascript frameworks – som Google Angular, React eller Vue er det derfor stadig vigtigt, at du benytter en eller anden form for pre-rendering af i hvert fald det vigtigste indhold på siderne.
Skriv en kommentar