Nyt om SEO – det lærte jeg på SMX London
I sidste uge var jeg, sammen med et par kollegaer fra Waimea, til den store internationale søgemaskinekonference SMX i London. Jeg var som sædvanligt på programmet som taler og moderator, men derudover deltog jeg også i en en masse virkelig gode sessions med andre kollegaer.
Selvom det til næste år er 20 år siden jeg udgav min første bog om SEO er der stadig nyt at lære. Hver eneste år byder på nye SEO udfordringer der kræver ny viden. Sådan har det altid været med SEO. Så også i år lærte jeg lidt nyt, og vil gerne dele lidt af det med jer her …
Jeg skal lige understrege, at min interesse først og fremmest ligger i organisk SEO og at det derfor kun var det organiske spor jeg deltog på – og vil referere fra. Der var også et PPC-spor, som garanteret også var spændende, for dem der arbejder mere med det område.
AI, mobil og teknisk SEO
Konferencen bar overordnet set rigtig meget præg af alt det der sker med kunstig intelligens (AI), maskinlæring, hele mobilområdet og en række andre stigende udfordringer i forhold til teknisk SEO.
Der var faktisk overraskende lidt fokus på indhold og indholdsoptimering, på trods af at indhold stadig er en af de 4 vigtigste områder at optimere i forhold til SEO – udover teknisk SEO, linkbuilding og user engagement.
Mit foredrag handlede så også om et teknisk aspekt af indholdsoptimering – nemlig om mulighederne med maskingenerering af tekster. Det er et super spændende områder, som jeg kommer til at skrive en del mere om i den kommende tid. Men lad mig blot i denne omgang understrege, at mulighederne i dag er utroligt gode.
Tidligere var maskingenerering af tekster enten så dyrt og tidskrævende, at det ikke økonomisk set gav nogen mening – men mere var udtryk for nørdede eksperiementer, eller kvaliteten var så ringe, at man ikke kunne være bekendt at vise det til levende mennesker (for slet ikke at snakke om kunder).
Men i dag er det faktisk muligt at skabe systemer til automatisk generering af f.eks. produkt- og kategoritekster i en webshop som kvalitetsmæssigt er bedre end dem de fleste tekstforfattere kan skrive og til en brøkdel af prisen!
Jeg arbejder med nogle meget spændende planer på området, så hvis det er noget din virksomhed kunne være interesseret i at høre mere om så er du meget velkommen til at skrive til mig på: mikkel@waimea.dk.
Google Assistent bliver klogere
Behshad Behzadi fra Google indledte konferencen med en præsentation af Google Assistent og en modig live præsentation af nogle af de mange ting man i dag kan med den. Den bygger i høj grad på AI og maskinlæring og er – udover den basale talegenkendelse, i stigende grad i stand til at forstå dig.
Over tid lærer Google Assisten hvad dine præferencer er, at du kan via almindelig tale lære den ting, som er vigtige for dig. Meget på samme måde, som en almindelig menneskelig assistent ville gøre det samme.
Som et eksempel fortalte Behshad Behzadi sin Google Assistent, at han kun kan lide at gå i vanden hvis det er over 25 grader. Senere spurgte han så om han kunne tage ud og bade dagen efter i sin hjemby – Google Assistent svarede nej, da den kunne se på vejrmålingerne, at vandet kun ville være 22 grader.
Det er naturligvis et meget simpelt eksempel, men jeg kan sagtens forestille mig langt mere kompleks scenarier, hvor en sådan digital assistent kan være til utrolig meget hjælp i det dage.
Der var også nogle interessante spørgsmål, som dukkede op under den efterfølgende Q&A …
En enkelt deltager ville høre om Google udover den præcise viden assistenten får, også opbygger profileret viden – f.eks. som vi kender det var Facebooks reklame interesser. Det kunne f.eks. være at du også går i kirke, men ikke har fortalt Google Assistent at du er religiøs. Det kunne den så måske udlede. Eller at du viser sympati for homoseksuelle, og at du så måske er det selv.
Og netop de to eksempler viser også hvor farligt den slags kan være – og iøvrigt lidt kompliceret i forhold til den nye persondataforordning (GDPR).
Behshad Behzadi afkræftede dog, at det sker i dag, men han virkede dog heller ikke helt afvisende for at det kunne ske senere. Jeg håber så bare, at Google vil være mere transparente med det end det vi indtil nu har oplevet fra data-giganterne.
Et andet spørgsmål, som jeg bragte op var, omkring typen af svar Google Assistent giver. På Behshad Behzadi præsentation synes jeg meget ofte at den gav et svar på et spørgsmål – hvilket jo er langt fra de (min) 10 resultater vi får i søgemaskinerne. Og som jeg understregede – jeg opdrager mine børn til (det faktum) at der som regel er mange svar på et spørgsmål. Holdninger spiller meget ofte ind.
Til det svarede Behshad Behzadi, at Google Assisten nogle gange vil vise søgeresultater, frem for et enkelt svar, når de mener det er bedst, men fastholdt, at der på mange spørgsmål findes et enkelt rigtigt svar. Det er ellers en strategi som Google har fået meget berettiget kritik fra i deres søgemaskines featured snippets, hvor der har været mange eksempler spå spørgsmål som Googtle har ment der var kun et korrekt svar på, men hvor det svar har været f.eks. meget kønsdiskriminerende eller rasistisk – og altså klart udtryk for en (enddog meget ekstremistisk) hyolding, og ikke et faktum.
Så den del kan jeg godt frygte lidt for. Hvis Google Assistent ikke bliver bedre til at præsentere flere svare på umiddelbart enkle spørgsmål, så er jeg bange for at en sådan digital assistent kan ende med at gøre os dummere, frem for klogere.
Det sidste spørgsmål jeg vil nævne her kom fra flere der var nysgerrige på om der kommer reklamer i Google Assistent. Det er der nemlig ikke lige nu. Behshad Behzadi sagde at der ikke var planer om det, men jeg tror ikke der var mange i forsamlingen der helt troede på det. For hvis Google Assistent bliver meget udbredt, så vil Google naturligvis også kapitalisere på det, som de har gjort med de fleste af deres andre produkter.
Det er sådan set også OK, hvis ellers de så også lige får helt styr på det her med den profilerede data, således at det overholder gældende lovgivning og at viu som forbrugere kan føle os tryk ved Google Assistenten.
Ranking Factors 2018
Førstedagen bød også på en session om hvilke ranking faktorer der er vigtigst i 2018. Heldigvis var der i denne session plads til både kritik og skepsis omkring de metoder, der som regel bruges til at undersøge den slags.
Den mest udbredte metode til at undersøge ranking faktors er såkaldte “korrelations -analyser” – det vil sige, hvor man typisk ser på to tal, og hvis kurverne følges ad konkluderer, at der er en årsag-sammenhæng.
Men som du måske allerede ved er det – isoleret set, en meget dårlig metode. For som enhver statistiker ved, så er der ikke nødvendigvis bevis for en sammenhæng, blot fordi der er korrelation – eller som de siger på engelsk: “Correlation does not imply causation”.
Jeg har i en tidligere artikel på vores engelske blog kritiseret SEM Rush for deres ranking faktor rapport for netop dette. Du kan læse hele det indlæg her. I dette indlæg understreger jeg også min pointe med en række morsomme eksempler på korrelations-analyser, som de fleste af os nok vil sætte spørgsmålstegn ved rigtigheden af. Nedenfor kan du se et par stykker af de mere absurde …
Omend der sikkert er nogle, som vil have forståelse for visse af ovenstående korrelationsanalyser, så er jeg sikker på, at du på et lidt mere formelt plan vil være enig med mig i, at man altså ikke kan drage endelige konklusioner på basis af disse undersøgelser.
Og det samme er tilfældet for SEO!
SEM Rush præsenterede i denne session deres undersøgelse, som jeg som sagt er ret kritisk overfor. De havde dog tilføjet et slide tilsidst, i forhold til tidligere, som I virkeligheden undergravede hele deres præsentation: Hønen og ægget …
For som Marcela De Vivo, der iøvrigt er en meget kær og god gammel kollega og ven i branchen sagde, så kan de ikke med sikkerhed vide om hvad der kom først. Med andre ord, så var deres konklusion om at “direct traffic” er den vigtigste ranking faktor i dag meget usikker. Måske er det at nogle sites ranker så godt grunden til at de får så mange direkte besøg også, eller også er det omvendt. Eller også er det tilfældigheder. Det kan en korrelationsanalyse ikke alene påvise.
Marcus Tober fra Search Metrics var lidt mere nuanceret. Hans præsentation dykkede lidt mere ned i forskellene på forskellige brancher. F.eks. er der i top 10 resultaterne mange flere sites med video når man ser på fitness branchen, end der er på branchen for skilsmisseadvokater. Logisk nok.
Han gennemgik en masse af den slags sammenligninger, men understregede klogt nok, at man ikke dermed kan konkludere at flere vidoer er en vigtig ranking faktor i fitnessbranchen, men måske mere, at det tilsyneladende er normen, og måske derfor noget brugerne forventer af den type sites.
Nick Wilsdon sluttede denne session af med at undergrave meget af det de to andre talere havde præsenteret. Sjovt, og nok også lidt mere i overensstemmelse med virkeligheden. Man skal jo nok have lidt med i sin kildekritik, at de to første repræsenterer firmaer, der lever af at sælge SEO-interesserede nogle værktøjer der forsøger at kvantificere og forenkle SEO – måske lige lovlig meget, efter min smag. I hvert fald må jeg konstatere, at deres resultater ikke altid stemmer overens med den virkelighed jeg som erfaren SEO’er oplever.
Mobile First indexing
Du har sikkert allerede hørt om Googles mobile first strategi, men i en af førstedagens eftermiddagssessions blev der gået meget mere i dybden med dette emne. Relevant og godt!
Det som er meget vigtigt at forstå er, at Google fremover vil bruge den mobile version af dit website, som den primære kilde til at vurdere hvilke søgninger den er relevant for – og så tjekke om der findes en desktop version også.
Der er ikke – som nogle tror, tale om to forskellige indekser. Mobil og desktop er samme indeks, det hanlder blot om at Google nu vender prioriteringen på hovedet, og at det derfor er vigtigere end nogensinde før, at du har stærk mobilversion af dit website og at du på den mobile version viser det samme – eller i stort træk, det samme indhold på den mobile version som på desktop versionen.
For som flere af talerne demonstrerede er der mange virksomheder, der i den mobile version af deres website – på grund af den mere begrænsede skærmplads, har filtreret en masse indhold væk. Problemet er så nu, at det bortfiltrerede indhold ikke vil blive brugt af Google til at vurdere sidens kvalitet – også selvom indholdet måske findes i desktop-versionen.
Teknisk SEO – det nyeste nye
En af de, efter min mening, bedste sessions jeg har set i mange år var om teknisk SEO og havde nogle af de dygtigste folk i branchen i panelet: Bartosz Goralewicz fra Elephate i Polen, Tom Anthony fra Distilled i UK og James Finlayson fra Verve Search i UK.
Alle tre leverede nogle virkelig stærke præsentationer der gik i dybden med nogle af de store udfordringer der er med blandt andet JavaScript og PWA (Progressive Web Applications). Og for at gøre en lang historie kort, så er der fortsat meget store udfordringer på det område.
For på den ene siden sker der rigtig meget i disse år i forhold til hvad man kan med websites. Og det er bestemt meget spændende. På den anden side halter Google i alvorlig grad bagefter i forhold til at crawle og fortolke alle disse nye ting.
I forhold til JavaScript er der ikke så forbandet meget nyt at sige. Faktum er stadig, at Google kun i meget begrænset grad eksekverer JavaScript. Hvad der var lidt nyt for mig er, at Google faktisk bruger en ret gammel version af Chrome – version 41, til at fortolke JavaScript, og at de ikke gør det når de crawler, men sætter det i kø til efterfølgende behandling.
Det betyder i praksis, at der dels af rigtig mange af de nye JavaScript funktioner, som fortolkes fint i en ny Chrome version 66, som slet ikke kan eksekveres i Chrome 41. Og når det ikke eksekveres med det samme – og måske ender med aldrig at blive det, så kan vi kanske enkelt ikke stole på at de nogensinde ser indhold der udskrives med JavaScript.
Så på trods af at jeg skam også synes at det er både lækkert og spændende med alle de ting vi kan med JavaScript, og på trods af at Google ofte praler med hvor gode de er til at håndtere JavaScript, så må vi altså stadig leve med, at det i praksis ikke helt er til at stole på. Det vigtigste indhold skal vi stadig rendere på serveren.
Talerne var optimistiske i forhold til at det nok skal blive bedre og Google har da også annonceret, at det vil opgradere den JavaScript engine de bruger. Men jeg tror ikke det løser alle problemer med JavaScript.
For som Bartosz meget elegant demonstrerede så kræver det absurd mange flere ressourcer at fortolke JavaScript end almindelig HTML, og alene derfor tror jeg ikke vi skal regne med at al JavaScript nogensinde vil blive eksekveret. Jeg tror de vil fortsætte med at prioritere det og dermed risikerer du at lige præcis dine JavaScript elementer filtreres fra.
Så mit bedste råd er det samme som det har været i mange år – brug ikke klient baseret JavaScript til vigtige indholds- og navigationselementer, uden at de også er til stede i server renderet version.
En enkelt nyhed på området, som ser lovende ud er muligheden for dynamisk rendering. Tidligere har vi kun kunne vælge mellem klient-baseret eller server baseret rendering af JavaScript. Problemet er, at det sidst er utrolig tungt for din webserver. Men den dynamiske rendering kan vi nøjes med at rendere første kald, og det er smart. Så det bør vi bestemt se nærmere på når det for alvor kører.
En af de udfordringer jeg så ser med dynamisk rendering er, at det i praksis kan komme til at ligne cloaking, og dermed er der fare for om det ender med at holde vand. Men det må tiden vise.
Gør det du siger mere relevant for kunderne
Det var ikke kun teknisk SEO der blev snakket om. En enkelt taler fremhævede en meget vigtig pointe omkring hvordan vi kommunikerer med vores kunder omkring SEO.
Når vi laver en SEO Analyse illustrerer vi alt for ofte ikke de fejl der er på en måde, som giver meningen for ikke SEO-kyndige ledere i de større virksomheder. Et eksempel på dette kunne være døde links. Her fortæller vi dem som regel at I har f.eks. 200 døde links, som bør rettes. Eller 2% af alle links er døde. Men en bedre måde at gøre det på kunne være, at crawle deres konkurrenter også, og så beskrive problemet i relatioin til dem – og f.eks. sige, at det er 4 gange så sandsynligt, at besøgende på dit website klikker på et dødt link, fremfor dine konkurrenter.
Der er flere andre gode eksempler af den slags, som jeg bestemt har taget til mig. Jeg er altid på jagt efter endnu bedre måder at forklare de komplekse aspekter af SEO til mine kunder på en måde der gør, at de for alvor forstår det og motiveres til at gøre det ting der nu engang bør gøres for at skabe de resultater de er ude efter.
SMX gør mig klogere
Der var naturligvis mange andre glimrende indlæg på SMX i London end jeg har valgt at skrive lidt om her. Den vigtige pointe er, at konferencer som SMX gør mig dygtigere. På trods af mine over 20 år i branchen kan jeg stadig lære nyt, hver eneste dag. Og det gør jeg. For ellers sakker man hurtigt bagud i denne branche.
Jeg oplever desværre alt for mange, der bygger deres “gode råd” om SEO på forældet viden og så bliver resultaterne naturligvis også derefter.
Udover den faglige del på de mange gode sessions er det også altid dejligt, at møde mine mange – nye og gamle kollegaer i branchen, fra hele verden. Nogle af dem har jeg kendt i næsten 20 år og nogle møder jeg for første gange. Denne gang var ingen undtagelse og jeg kom hjem med et par nye gode venskaber i tasken. Det er relationer jeg også kan bruge fagligt og trække på når jeg støder ind i udfordringer, der kræver et ekstra syn på sagerne.
Næste år er der SMX i London igen og jeg tager måske også til SMX i München, hvor jeg tidligere har deltaget med foredrag. De vil gerne have mig tilbage. Så måske ses vi et af de steder i det nye år …
Skriv en kommentar