Size Matters – hurtige websites ranker bedre og bedre i Google
Google har igennem flere år haft stigende fokus på, hvor godt brugerne oplever de websites de besøger. Denne viden bruger Google så, i vurderingen af hvordan dit website skal ranke.
En af de vigtigste faktorer for en god oplevelse er hastighed. Og netop hastighed – et hurtigt website, bruger Google – både direkte og indirekte, når de skal vurdere godt og relevant dit website er.
Size Matters … er dit website hurtigt nok? Og hvad kan du gøre for at forbedre det? Det vil vi se lidt nærmere på i dette indlæg.
Website hastighed har (næsten) altid været vigtigt
Da Google startede var de ikke så gode til, at vurdere, hvor hurtigt de kunne tillade sig at crawle et website – så de crawlede det så hurtigt de kunne. Det betød, at de nogle gange gik så hårdt til værks, at deres spiders i praksis kom til at virke som en slags DDoS angreb. Webservere brød sammen under deres “angreb”.
Jeg husker tilbage omkring år 2000, hvor jeg drev virksomheden RedZoneGlobal med en partner i USA. Vi havde tilsnusket os en hel IP C-klasse (256 IP numre), som var opsat på vores cloaking server. Når Google crawlede den troede de, at der bag de mange IP numre lå en masse servere, så vi oplevede enkelte gange, at de sendte op til flere hundrede requests i sekundet. Det kunne den stakkels server ikke lige klare.
Men der gik ikke længe, før Google lærte at styre deres webcrawlere, så de ikke lagde webservere ned på stribe på deres vej. Det havde de jo heller ikke rigtig nogen interesse i. De begyndte at registrere, hvor hurtigt hver enkelt webserver kunne svare, og hvis de svarede lidt langsomt, så crawlede de dem lidt langsommere – for ikke at belaste dem for meget.
Denne udvikling var på mange måder god, men den betød så også, at langsomme webservere – eller websites med meget tunge sider, ikke blev crawlet ligeså hurtigt. Og konsekvensen af det blev så, at nye sider på disse – langsomme, websites ikke kunne få nye sider indekseret ligeså hurtigt, og gamle sider der blev opdateret blev langsommere opdateret i Googles indeks.
Website hastighed som ranking faktor
I 2010 annoncerede Google, at website hastighed fremover ville være en direkte ranking faktor. Det er naturligvis ikke den eneste faktor – der er flere hundrede andre, men det viste sig snart at blive en af de meget vigtige faktorer. Med et hurtigere website blev det lettere at ranke godt.
Og den udvikling fortsatte. Med udbredelsen af smartphones, blev website hastighed endnu vigtigere. Senest har Google meldt ud, at websites skal kunne vise indholdet above the fold (det du ser før der scrolles ned) på under 1 sekund! Det gør de ikke for at være onde, men fordi deres målinger viser, at mange brugere falder fra, hvis dit website er langsommere end det.
I dag oplever vi hastighedsoptimering, som en af de hurtigst virkende og mest effektive måder at optimere dine rankings på. Når dit website bliver hurtigere ranker det bedre. Ganske enkelt!
Sådan måler du hastigheden på dit website
Der findes mange forskellige værktøjer, der kan hjælpe dig med, at måle hastigheden på dit website. Vi bruger bl.a. disse tre, som jeg kan anbefale:
- Google PageSpeed Insight
- Google Search Console (tidligere Webmaster Tools)
- Pingdom Tools
Google PageSpeed Insight viser den samlede hastighed, på en skala fra 0-100, på de websidee du tester – HTML, billeder osv. samlet, sådan som brugerne oplever det. Målingen viser både hastigheden for desktop og mobile brugere.
Udover at vise hastigheden kommer Google PageSpeed Insight også med en række prioriterede forslag til forbedringer. Selv hvis du ikke er så teknisk anlagt kan du få en mase ud af det. Print dem ud og tag en snak med dine udviklere og evt. host om dem. De fleste forslag vil være værd, at overveje at følge – om muligt.
Du bør sigte efter en PageSpeed på minimum 90.
Google Search Console kender du måske bedre som Google Webmaster Tools, men de skiftede i sidste uge navn til Search Console. Her kan du få en hel masse oplysninger om, hvordan Google forstår dit website. Så hvis du ikke allerede har tilmeldt dit website til denne gratis service så gør det nu!
En af de rapporter du kan få i Google Search Console viser, hvor hurtigt Google kan crawle dit website. Der er således ikke tale om brugernes oplevelse af hastighed, men alene hvor hurtigt Googles crawlere kan hente dine (HTML) sider. Du finder statistikken under Gennemgang -> Gennemgangsstatistik.
Nedenfor kan du se et eksempel på en sådan måling – i det konkrete tilfælde fra vores eget website. Du bør have en gennemsnitshastighed på under 1 sekund og ikke for mange høje spikes.
Som du kan se er vores gennmsnitshastighed god – med 721 ms, men der er desværre nogle få spikes på over 2 sekunder. Det er ikke godt, og skyldes ustabilitet hos vores host. Så vi har besluttet at flytte websitet til en mere stabil udbyder.
Pingdom Tools har en masse forskellige værktøjer, men i denne omgang skal vi se på deres hastighedstest. Den er noget anderledes end de to andre. Den måler den konkrete hastighed på en side nu og her og viser hvor lang tid det tager at downloade de enkelte elementer på en side.
Vi bruger ofte dette tool, hvis en webside er lidt langsom og vi vil finde ud af, hvad det er som “hænger” – hvilke objekter der gør siden tung – eller om der helt generelt, er alt for mange objekter på siden, som måske kan reduceres (f.eks. mange eksterne CSS- og JS-filer, billeder osv).
Sådan optimerer du hastigheden på dit website
Der er rigtig mange måder du kan optimere hastigheden på dit website, men man kan groft inddele dem i to grupper:
- Back-end optimering
- Front-end optimering
Lad os starte med det sidste – det er ofte her der er mest at hente, og hvor det er lettest at optimere.
Det første du bør se på er optimeringen af dine billeder. De fleste websites har ikke komprimeret deres billeder godt nok og hvis det er tilfældet kan du typisk reducere størrelsen på dine sider mere gennem billede-optimering alene, end ved al kode-optimering tilsammen.
Du kan få et samlet overblik over hvor store billederne er på dit website ved, at crawle det med f.eks. Screaming Frog. Normalt bør ingen billeder være over 50-100 kb og meget gerne endnu mindre. Så hvis du har mange over den størrelse er det en god indikation på, at du kan optimere hastigheden væsentligt ved at komprimere dine billeder bedre.
Måske bruger du Photoshop til at redigere dine billeder og eksporterer dem i “optimeret” webformat. Problemet er bare, at det er Photoshop ikke særlig god til. Billeder kan ofte komprimeres 20-70% mere efter komprimeringen i Photoshop – helt uden at du kan se forskel på det færdige resultat!
Der findes mange services du kan bruge til bedre komprimering af dine billeder. To af de gratis som jeg kan anbefale er:
Hvis du har mange billeder, ligger mange nye sider eller produkter på dit website, eller du ikke er så teknisk anlagt, så kan en løbende manuel optimering være lidt et helvede. Men heldigvis findes der en god, og automatisk løsning på det …
Kraken.io er en API-baseret optimeringstjeneste. Den koster lidt at bruge, men det er ikke så meget. Det starter på $5 om måneden. Med denne løsning implementeret på dit website behøver du ikke længere tænke på billedeoptimering – det hele klares automatisk. Vi bruger det selv på både denne og mange andre blogs – egne og kunders. Det fungerer rigtig godt!
Der findes allerede færdige plugins, der gør implementeringen meget let, til WordPress, Drupal, Umbraco, Symfony2 og Contao. Hvis ikke du bruger et af disse CMS’er, skal du have fat i dine udviklere.
Når du har optimeret dine billeder vil jeg anbefale, at du får kigget din gode igennem – den HTML, der sendes til brugerne. Her kan der ofte også hentes en del ved en god optimering. Du bør bl.a. overveje …
- Fjern al unødig kode
- Brug kun ekstern CSS og JavaScript
- Reducer mængden af eksterne filer
- Minificer al koden
- Komprimer koden på serveren
Til nogle CMS’er findes der plugins der kan klare det for dig. På andre er det en lidt mere manuel opgave.
Når alle dine front-end elementer er optimeret så godt som du kan er det tid at se på back-end optimeringen. Det er ofte lidt sværere at optimere. Her skal du normalt have fat i dine udviklere og din web-host.
Ofte kan database-kald og opslag i eksterne resurser optimeres, men det kræver adgang til din database – og ekspertise i den slags, at gøre det.
En god indikation på, om det er nødvendigt – og hvor meget du kan få ud af det, er at se på din serveres response-tid. Hvis den (som f.eks. rapporteret af Google PageSpeed Insight) er meget over 0,1 sekund, så bør du overveje optimering.
Få hjælp til hastighedsoptimering – det betaler sig!
Jeg erkender at ovenstående kan virke lidt omfattende og kompliceret. Og det er endda den korte version. I praksis er der meget mere du kan gøre for at optimere hastigheden på dit website.
Men jeg kan bare ikke understrege nok, hvor vigtigt det er! Og det er natuligvis ikke kun for søgemaskinernes skyld. Brugerne elsker også et hurtigt website – og hader det modsatte.
Så der er ikke rigtig nogen vej udenom hastighedsoptimering. I hvert fald ikke, hvis du tager dit website seriøst.
Rettelse: det var i 2010 at det Officelt var udmeldt fra Google at hastighed nu var en faktor.
Ja, en lille slåfejl. Helt nøjagtigt blev det annonceret 9. april 2010 🙂
http://googlewebmastercentral.blogspot.com/2010/04/using-site-speed-in-web-search-ranking.html
Jeg er helt enig i at Pingdom er et rigtigt godt tool til at måle og analysere websites loadhastighed. Men er der en grund til at du ikke nævner (eller bruger) YSlow?
Jeg er ikke selv stor fan af det – men det kunne være fedt at høre din holdning Mikkel? 🙂
Der findes ekstremt mange online marketing tools. Ja faktisk, nåede vi op over 2.000 tidligere i år. Jeg kender kun de færreste og bruger endnu færre. Nogle af dem fordi jeg mener det er de bedste, andre fordi jeg bare er vænnet mig til dem.
Jeg kender ikke lige YSlow. Jeg synes kombinationen af de tools jeg bruger i dag giver mig et godt billede af det jeg har brug for. Men det kan jo ændre sig med tiden, som det altid har gjort 🙂