Sökmotoroptimering (SEO) handlar om att optimera en webbplats så att den syns högre upp i sökresultaten på Google och andra sökmotorer. Detta är ett område fyllt av påståenden och myter – men här går vi igenom vad som verkligen påverkar rankningen, med stöd av välkänd forskning och sökmotorernas egna patent. Vi fokuserar främst på Google (då Google dominerar i Sverige), men tar även upp perspektiv från andra sökmotorer där det är relevant. Målet är att ge en pedagogisk, djupgående förståelse för SEO – från grunderna till avancerade faktorer – och att slå hål på vanliga myter med faktiska bevis.
Läs vidare för att lära dig hur sökmotorer fungerar, vilka rankingfaktorer som är viktigast, hur du optimerar innehåll och teknik, samt vad modern forskning och patent avslöjar om hur Google rankar sidor. Vi kommer också peka ut SEO-myter som saknar grund i verkligheten.
SEO (Search Engine Optimization), på svenska sökmotoroptimering, är konsten och vetenskapen att få en webbplats att ranka så högt som möjligt bland de organiska (icke-betalda) sökresultaten. När någon söker på t.ex. “sökmotoroptimering” på Google vill du att din sida om SEO ska dyka upp på första sidan – helst i toppositionerna – eftersom länkar högre upp får betydligt mer trafik än de längre ned. För företag innebär god SEO mer synlighet, fler besökare och potentiellt fler kunder, utan kostnaden för varje klick som betalda annonser innebär. En hög ranking ger också en förtroendeeffekt – användare tenderar att lita på de resultat som Google visar först.
Varför är SEO viktigt? En överväldigande andel av alla klick går till de översta organiska resultaten. Studier har visat att de första fem organiska resultaten kan få över 2/3 av alla klick, medan resultaten på sida två och bortom knappt får någon trafik alls. Samtidigt görs miljontals sökningar på Google varje dag i Sverige, så att inte synas på relevanta sökord innebär missade möjligheter. Genom SEO kan även mindre företag konkurrera om synlighet genom att erbjuda det mest relevanta och användbara innehållet för specifika sökfrågor.
Det är också värt att notera skillnaden mellan organiska sökresultat och betalda annonser. De organiska resultaten är de som SEO fokuserar på – de rankas av Googles algoritm baserat på relevans och kvalitet. Betalda sökannonser (Google Ads) visas ofta högst upp eller längst ned på sidan som “Sponsrade” länkar och är en separat kanal där annonsörer betalar för att synas. En vanlig missuppfattning är att man kan köpa sig till bättre organiska placeringar genom annonser; i verkligheten hålls de två delarna strikt isär. Google har tydligt förklarat att köp av annonser inte hjälper en sida att ranka bättre organisktsearchenginejournal.comsearchenginejournal.com. Med andra ord, du kan inte betala Google för högre organisk ranking – det måste förtjänas genom SEO-arbete.
SEO är tvärvetenskapligt och omfattar flera områden, bland annat: optimering av innehåll (så att det är relevant och tillfredsställer det användaren söker), teknisk webbplatsstruktur och prestanda (så att sökmotorn kan crawla och indexera innehållet effektivt), samt länkar och popularitet (andra sajter som länkar till ditt innehåll som ett tecken på förtroende). I de kommande sektionerna går vi igenom hur sökmotorer rankar sidor och hur du optimerar inom varje område – med fakta och patent i ryggen för att säkerställa att råden verkligen har stöd i hur algoritmerna fungerar.
För att lyckas med SEO behöver man förstå grunderna i hur en sökmotor som Google fungerar. Processen kan delas in i tre huvudsteg: crawling (genomsökning), indexering och rankning (ordnande av sökresultat). Vi går igenom dessa kort:
Crawling (genomsökning): Sökmotorer använder automatiska program, s.k. spindlar eller bots (Googlebot är Googles variant), för att ständigt surfa webben och hitta nya eller uppdaterade sidor. Botarna följer länkar från kända sidor till nya sidor – ungefär som när du själv klickar dig runt – och samlar in innehållet på sidorna.
Indexering: Innehållet som sökboten hämtat analyseras och lagras sedan i sökmotorns index – en enorm databas med information om alla upptäckta webbsidor. Här försöker Google förstå sidans innehåll och relevans. Den tittar på text, titlar, metataggar, strukturerade data, etc. för att avgöra vad sidan handlar om. Om en sida inte kan indexeras (t.ex. p.g.a. tekniska fel, blockering via robots.txt eller liknande) så kommer den inte att kunna rankas i sökresultaten.
Rankning (sortering av resultat): När en användare gör en sökning tar Google fram alla sidor i sitt index som skulle kunna vara relevanta och rankar dem efter vad Google bedömer som mest användbart för användaren. Det är här det verkliga kärn-arbetet i SEO ligger – att vara den sida som Google anser mest relevant och pålitlig för en given sökfråga, så att den hamnar överst.
Det komplexa är förstås hur Google väljer ordningen på resultaten. Google använder hundratals olika signaler i sin algoritm för att bedöma relevans och kvalitet. Exakt hur algoritmen fungerar är hemligt, men Google har avslöjat några ledtrådar. Bland annat har de sagt att innehåll och länkar (off-page popularitet) hör till de absolut viktigaste faktorerna, tillsammans med RankBrain (en AI-baserad algoritm för tolkning av sökfrågor)en.wikipedia.org. RankBrain hjälper Google förstå vad användaren menar även om sökfrågan formuleras på ett sätt Google inte sett förut, men det handlar mer om tolkning av sökningen än om rankning av ditt innehåll. När det gäller rankningsfaktorer i sig nämnde Google just innehållets relevans och länkarna till sidan som toppfaktoreren.wikipedia.org.
Det är viktigt att inse att Google ständigt förbättrar och förändrar sin algoritm. Faktum är att Google sökmotor är baserad på en mängd akademisk forskning och patent. Patent är särskilt intressanta för SEO eftersom de ger en inblick i metoder Google kan använda för att ranka sidor. Bara för att något står i ett patent betyder det inte alltid att det används i praktiken, men det avslöjar vad Google har arbetat på och anser vara viktigt. Till exempel har originalpatentet för PageRank – algoritmen som gav Google dess genombrott – nu gått ut, och Google har sannolikt ersatt eller utvecklat konceptet vidareseobythesea.com. Men PageRank-idén (att länkar fungerar som “röster” för sidor) lever vidare i högsta grad, om än i mer sofistikerade former. Google har även patent som tyder på användning av maskininlärning, användarbeteenden, och kvalitetsbedömningar. Vi kommer att titta närmare på många av dessa faktorer (backade av patent och forskning) i kommande avsnitt.
En annan nyckelpoäng är att olika sökmotorer fungerar liknande men inte identiskt. Google är som sagt i fokus här (med >90% marknadsandel i Sverige), men Bing och andra sökmotorer har sina egna algoritmer. Grundprinciperna – att leverera mest relevanta och pålitliga resultat – delas av alla, men viktningen av signaler kan skilja sig åt. Till exempel har Bing indikerat att de använder användarengagemang (klickfrekvens, dwell time m.m.) som en signal i större utsträckningsearchengineland.com, och de fäster vikt vid sociala signaler i viss mån. Google å sin sida har offentligt tonat ned sådana signaler, möjligen p.g.a. risken för manipulation (mer om det senare). Som SEO-specialist kan det vara bra att känna till dessa skillnader, men om du optimerar väl för Google tenderar du också att prestera bra på andra sökmotorer, just eftersom användarvänlighet och bra innehåll uppskattas brett.
Sammanfattningsvis: Sökmotorer rankar sidor baserat på relevans (hur väl innehållet matchar sökfrågan) och auktoritet/trovärdighet (hur mycket förtroende signaler som länkar och användarbeteenden indikerar). I följande avsnitt bryter vi ned dessa aspekter – on-page, tekniska och off-page faktorer – och ser vad både erfarenhet och patent säger om deras betydelse.
On-page SEO syftar på allt du kan göra på själva webbplatsen och sidans innehåll för att öka dess synlighet. Det handlar om att göra det glasklart för både användare och sökmotorer vad din sida handlar om och att den är högkvalitativ. Här ingår textinnehållet, rubriker, titlar, metataggar, URL-struktur, interna länkar, bilder med alt-text, m.m. On-page är grunden – om inte innehållet är relevant för sökfrasen har du väldigt svårt att ranka, hur många länkar du än skaffar. I detta avsnitt går vi igenom viktiga on-page-element:
Innehållet på sidan är kanske den mest självklara rankningsfaktorn – en sida måste handla om det användaren söker efter för att vara relevant. Men Google går långt djupare än att bara matcha sökord. Moderna sökmotorer analyserar meningen och kontexten i ditt innehåll för att avgöra hur användbart det är.
Google utvecklade redan tidigt tekniker för att identifiera “teman” och viktiga begrepp i text. En av de mer kända är Phrase-Based Indexing (fraskomponentsindexering). Förenklat innebär det att Google inte bara tittar på enstaka ord, utan även på vilka meningsfulla fraser som förekommer på sidan – och jämför det med andra sidor om samma ämne. Om din sida till exempel handlar om “President i USA” förväntar sig Google se fraser som “Vita Huset”, “Oval Office”, “Air Force One” osv. Dessa fraser fungerar som ledtrådar om sidans ämnegofishdigital.com. Om många sådana relevanta fraser förekommer, indikerar det att innehållet täcker ämnet väl. Google har över 20 patent relaterade till phrase-based indexing enligt en av uppfinnarna Anna Pattersongofishdigital.com. En av dessa patent beskriver att sidor kan få högre ranking om de innehåller vissa för ämnet förväntade fraser (och även om andra sidor som länkar till dem innehåller dessa fraser)cognitiveseo.com. Detta är en antydan om att omfattande, rikt innehåll som berör många aspekter av ett ämne kan belönas i rankingen.
Det betyder i praktiken att du bör sträva efter att täcka in ditt ämne så heltäckande som möjligt och använda naturliga termer och fraser som hör till ämnesområdet. Det handlar inte om att proppa in exakta sökord på onaturliga sätt (s.k. “keyword stuffing” – det känner Google igen och kan ignorera eller till och med straffasearchengineland.com). Istället vill du uppvisa för sökmotorn att din text är relevant, informativ och auktoritativ. Att använda synonymer, närliggande begrepp och svara på relaterade frågor ger Google en stark signal att din sida verkligen handlar om det användaren söker.
Ett exempel på hur Google använder avancerad tolkning är introduktionen av RankBrain (en del av Googles algoritm sedan 2015). RankBrain är en maskininlärningsbaserad komponent som hjälper Google tolka sökfrågor och relatera dem till sidor, även om orden inte exakt matcharen.wikipedia.org. Den kan gissa sig till liknande ord eller betydelser – om någon söker efter “hur varmt är det på månen?” kan Google koppla det till sidor som pratar om temperatur på månen, månen klimat, etc., även om orden skiljer sig. För dig som innehållsskapare innebär detta att sökmotorn blir bättre på att belöna bra innehåll som helhet, inte bara rena nyckelordsfrekvenser. Så fokusera på att besvara användarens intention fullt ut. Om din sida om ett ämne verkar täcka det ämnet mer komplett och korrekt än konkurrenternas – kanske baserat på att du nämner relevanta underämnen och detaljer – har du en fördel.
Google försöker också mäta kvalitet på andra sätt. Genom uppdateringar som Panda-algoritmen (införd första gången 2011) straffades tunna eller innehållsfattiga sidor. Sidor med hög E-E-A-T (Expertise, Experience, Authoritativeness, Trustworthiness – d.v.s. expertis, erfarenhet, auktoritet och trovärdighet) premieras särskilt i känsliga ämnen som hälsa, ekonomi osv. Även om E-E-A-T inte är en “direkt” rankningssignal som t.ex. en länk, så återspeglas det i algoritmen via olika mätvärden för innehållskvalitet. Till exempel tittar sökmotorer på författarens trovärdighet, innehållets noggrannhet och om källor refererassearchengineland.comsearchengineland.com. En artikel som är väl underbyggd med källhänvisningar och skriven av en erkänd expert inom området kan anses mer tillförlitlig (Google använder bl.a. mänskliga kvalitetsgranskare för att justera algoritmen mot sådana mål). Bing uttrycker det som att de bedömer en sajts och författares rykte, innehållets fullständighet och om det innehåller referensersearchengineland.com – och Google har liknande principer i sina riktlinjer.
Sammanfattning: Satsa på att skapa det bästa innehållet på webben för ditt ämne. Det ska vara relevant (inkludera viktiga termer och svara på användarens fråga), ha djup och bredd (täcka in ämnet så att läsaren får värde), och vara korrekt samt trovärdigt. Då ökar chansen att Google ser din sida som högkvalitativ och värd en topplacering.
SEO har historiskt handlat mycket om nyckelord – vilka ord folk söker på, och att dessa ord finns på din sida. Än idag är det förstås centralt att veta vilka sökord din målgrupp använder och säkerställa att de förekommer i ditt innehåll. Men angreppssättet har blivit mer sofistikerat.
Det räcker inte att strö nyckelordet överallt; Google förstår nu synonymer och relaterade begrepp ganska väl. Som nämnt ovan tittar Google på fraser och sammanhang. Så istället för att oroa dig för exakt nyckelordsdensitet bör du fokusera på semantiken: Vad försöker användaren åstadkomma med sin sökning (sökintention) och hur kan ditt innehåll bäst möta det behovet?
Ett konkret exempel: Om ditt primära nyckelord är “sökmotoroptimering” kanske det också är klokt att förklara “SEO”, eftersom många använder förkortningen. Google ser att SEO och sökmotoroptimering är ekvivalenta termer. Faktum är att svenska Google t.o.m. förstår engelska termer om ämnet är starkt förknippat med dem – t.ex. känner Google igen att “länkkatalog” och “link directory” handlar om samma koncept. Att ha med relevanta termer på både svenska och engelska kan ibland hjälpa (men akta dig för att gå överbord – det ska fortfarande läsas naturligt för en svensk användare).
Google har också patentsökta tekniker för att tolka ords betydelse beroende på sammanhang, såsom s.k. kontextvektorer eller vektormodeller (tänk word embeddings liknande de i modern AI). Det gör att Google kan avgöra att t.ex. ordet “Java” i en viss sökning syftar på programmeringsspråket och inte ön Java – genom att se vilka andra ord som är med. Så som innehållsskapare vill du ge rik kontext. Om du skriver om Java (kaffedrycken) kan det vara bra att nämna “koffein” eller “bryggning” vilket bekräftar för Google vilken Java du menar.
En annan aspekt är användarens sökintention. Två sidor kan båda innehålla sökordet, men om en sida tydligt adresserar det användaren vill veta/göra och den andra inte gör det, kommer den första ranka bättre. Detta kan övertrumfa t.ex. ordmängd – ibland rankar en kort men koncis sida över en långrandig men irrelevant sida. Se därför till att förstå varför folk söker på ett visst ord: Vill de lära sig något (informationssökning)? Köpa något (transaktion)? Navigera till en viss sida? Och anpassa ditt innehåll därefter.
En sista not om nyckelord: Meta-keywords (en gammal metatag där man kunde lista nyckelord) är inte relevanta för Google längre. Google ignorerar helt meta keywords-taggen i rankingdevelopers.google.com. Förr i webbhistorien användes den av sökmotorer, men den missbrukades så mycket att Google helt slutade bry sig om den redan för över 10 år sedandevelopers.google.com. Så lägg ingen tid på meta-keywords. (Andra metataggar, som meta description, tar vi strax.)
Titel-taggen (sidans <title> i HTML) är en av de viktigaste on-page signalerna. Titeln brukar även visas som den klickbara rubriken på sökresultatet. Att ha ett tydligt och unikt titel-taggs-innehåll som innehåller dina huvudsökord är grundläggande. Titeln sänder en stark relevanssignal – om en användare söker “bredbandsleverantör” och din titel är “Bredbandsleverantör i Sverige – Jämförelse av alternativ”, så förstår Google att din sida troligen handlar om just det ämnet. Titeln bör helst hålla sig under ~60 tecken så den inte trunkeras i sökresultaten. Tänk också på att en attraktiv, klickvänlig titel kan öka din CTR (click-through rate) från sökresultaten, vilket indirekt kan gynna dig. (Mer om CTR som signal senare.)
Meta description är inte en rankningsfaktor för Google – de har bekräftat att meta description-taggen inte används för att bestämma rankingendevelopers.google.com. Däremot används den ofta som den beskrivande textsnutten under titeln i sökresultatet, så en bra meta-beskrivning kan öka chansen att användaren klickar på just ditt resultat. Skriv därför en koncis, säljande beskrivning (120–155 tecken) som summerar sidans innehåll och inkluderar sökordet (Google fetar det sökta ordet i snippeten, vilket drar ögat till sig). Men undvik att tro att stoppa in sökord i meta description ger bättre ranking – Google har uttryckligen sagt att så är det intedevelopers.google.com.
Andra <meta>-taggar: Meta robots kan styra indexering (t.ex. “noindex” för sidor som inte ska indexeras). Meta charset osv. påverkar inte SEO direkt. Meta title ska inte blandas ihop med <title> taggen (som är viktig för SEO). Vissa CMS har ett fält som kallas “SEO-titel” vilket är just titel-taggen.
Rubriker (H1, H2, H3…): Använd rubrikelementen för att strukturera ditt innehåll logiskt. <h1> är vanligtvis sidans huvudrubrik. Det är bra om H1 innehåller huvudsökordet eller dess variant, så tidigt som möjligt, eftersom det också signalerar sidans ämne. Men du bör bara ha en H1 per sida (vilket är naturligt – det är sidans huvudtitel). Underrubriker <h2>, <h3> etc. hjälper både läsaren och Google att se sidans olika delar och delämnen. Det gör texten mer lättläst och indikerar hierarki. Även om Google numera är ganska bra på att parsea innehåll utan exakta H-taggar, så skadar det inte att vara semantisk. En <h2> som lyder “Prisjämförelse av bredbandspaket” ger en tydlig fingervisning att avsnittet handlar om priser, vilket är nyttigt för både Google och användare.
I innehållsstrukturen ska du dock undvika att överdriva användningen av sökord. Skriv rubriker som är meningsfulla. Ett exempel på överdrift vore: <h2>Sökmotoroptimering SEO Sökmotoroptimeringstjänster</h2> – det ser spammy ut. En bättre rubrik kan vara <h2>Så fungerar sökmotoroptimering i praktiken</h2>. Google kan identifiera när texter eller rubriker bara staplar nyckelord utan sammanhangsearchengineland.com.
Bilder och alt-text: Att använda bilder berikar sidan visuellt och kan öka användarengagemang. För SEO är det viktigt att optimera bilderna genom att ge dem alt-text som beskriver bilden. Alt-texten används av skärmläsare för synskadade, men Google läser den också för att förstå vad bilden föreställer och hur den relaterar till sidans innehåll. Om du har en infografik om SEO-matkartan kan alt-texten vara "Infografik som visar alla delar av sökmotoroptimering". Då kan bilden även dyka upp i bildsökningar för relevanta termer och bidra lite grand till sidans relevans (även om huvudsidan främst rankas på textinnehållet). Se också till att bildfilerna är komprimerade och har rimliga filnamn (exempel: sokmotoroptimering-guide.png istället för IMG00123.png).
Strukturerad data (schema.org markup) är ett mer avancerat HTML-tillägg där du taggar upp t.ex. recensioner, FAQ, events etc. på sidan med särskilda taggar så att Google lättare förstår dem och kan visa “rich snippets” (t.ex. stjärnbetyg, vanliga frågor direkt i sökresultatet). Strukturerad data kan öka din synlighet i SERPen, men de är inte en direkt rankningsfaktor. Det vill säga, du får inte högre ranking bara av att ha strukturerad data – men du kan få förbättrad presentation som indirekt kan öka din CTR.
En ofta förbisedd del av on-page är den övergripande sajtstrukturen och användarupplevelsen (UX). Sökmotorer föredrar webbplatser som är välorganiserade hierarkiskt och logiskt, för det underlättar både crawling och tolkning av vad som är viktigt.
Intern länkning: Genom att länka mellan dina egna sidor kan du sprida “link equity” internt och styra Google till ditt viktigaste innehåll. Google analyserar inte bara externa backlinks utan även interna länkar. Om din startsida och menystruktur pekar mycket på en viss undersida, signalerar det att den är central. Google har faktiskt bekräftat att interna länkar hjälper dem förstå webbplatsens struktur, och sidor som får många interna länkar kan prioriteras i crawl och kanske rankas bättre eftersom de uppfattas som viktiga för sajtägarenviseo.se. Så se över din interna länkstrategi: länka från relevanta sidor till andra relaterade sidor, använd beskrivande ankartexter (inte bara “klicka här” utan t.ex. “läs mer om SEO-strategi”). Ett vanligt misstag är att begrava viktigt innehåll djupt utan interna länkar – då kan Google missa det eller anse det mindre viktigt.
URL-struktur: SEO-vänliga URL:er är korta, beskrivande och innehåller gärna nyckelord. Exempel: doman.se/seo-guide är bättre än doman.se/article?id=12345. Även om URL:ens innehåll är en liten rankingfaktor, handlar det mest om att ge en bra användarupplevelse och en ytterligare kontextsignal.
Mobilvänlighet: Sedan Google införde mobile-first indexing (d.v.s. att de i första hand kollar mobilversionen av din sajt) är det kritiskt att sidorna funkar bra på mobil. En responsiv design som laddar snabbt på mobila uppkopplingar är standard numera. Om din sajt inte är mobilvänlig kommer den få det svårt i mobilresultaten. Mobilvänlighet är mer av en kvalificerande faktor – en icke-mobilvänlig sida kan tappa ranking på mobilen jämfört med en konkurrent som har likvärdigt innehåll men bättre mobilupplevelse.
Sidans hastighet: Detta är både en användarfaktor och en teknisk faktor. Google har explicit angett att sidladdningshastighet är en rankingfaktor på både desktop (infört 2010) och mobil (infört 2018 som “Speed Update”)developers.google.com. Notera dock att det främst är extremt långsamma sidor som riskerar att drabbas. Speed Update straffar bara de allra långsammaste sidorna och påverkade bara en liten andel sökfrågordevelopers.google.com. Med andra ord, om din sida är hyfsat snabb – säg laddar på 2-3 sekunder – får du troligen ingen rank-boost av att göra den blixtsnabb (även om snabbare alltid är bättre för användarna!). Men om din sida tar 10+ sekunder att ladda ligger du risigt till både vad gäller användare (som tröttnar) och Google. Google vill generellt att webben ska bli snabbare, så de belönar hastighet indirekt via bättre användarupplevelse och direkt via denna mindre signal.
Åtgärder för bättre prestanda inkluderar att optimera bilder, utnyttja cache, använda Content Delivery Networks (CDN) och minimera onödig skript. Håll även koll på Core Web Vitals – mätetal för användarupplevelse (laddningstid, interaktivitet, layoutstabilitet) som Google lanserade 2021 som en del av “Page Experience”-uppdateringen. Core Web Vitals är officiellt en rankingfaktor, men en ganska lätt sådan. Att bara uppfylla gränsvärdena för dessa kommer inte skjuta upp dig till topplacering om inte innehållet och länkarna finns där, men om två sidor är väldigt lika kan en bättre Page Experience ge en fördel.
Sidhierarki och navigering: Se till att användare (och därmed Google) lätt kan navigera din sajt. En grundregel är att vilken sida som helst bör gå att nå inom ett par klick från startsidan. Använd brödsmulor (breadcrumb navigation) om det passar – det ger både användare och Google en indikation var på sajten en sida befinner sig hierarkiskt.
Sammanfattningsvis kring on-page: allting kokar ner till att göra det enkelt för Google att hitta, förstå och gilla ditt innehåll. Klart och strukturerat innehåll med relevanta rubriker och termer, tekniskt sunda sidor som laddar snabbt och fungerar på alla enheter, och en intern struktur som speglar vad du tycker är viktigast. Om du uppfyller dessa kriterier har du lagt en solid grund. Nästa steg är att titta på off-page-faktorer – främst länkar – som historiskt har varit Googles hemliga sås.
(Teknisk SEO överlappar delvis med on-page, men här fokuserar vi på bakom-kulisserna-aspekter som hjälper eller stjälper din synlighet.)
Indexeringsbarhet: Först och främst, om inte Google kan crawla och indexera din sida korrekt, spelar inget annat någon roll. Se upp för tekniska fällor som: blockerande robots.txt-regler, noindex-taggar på viktiga sidor av misstag, dålig sajtstruktur som gör att boten inte hittar dina sidor, eller användning av tekniker som Google inte läser (t.ex. text som bara laddas in via komplex JavaScript utan server-side rendering – Google kan rendera en del JS numera, men det är inte idiotsäkert). Använd verktyg som Google Search Console för att kontrollera att dina sidor indexeras. Search Console kan också larma om mjuk 404-fel (sidor som ger användaren “sidan kunde inte hittas” men inte sänder korrekt 404-kod) eller duplicerat innehåll. Duplicerat innehåll inom din sajt kan förvirra Google om vilken version som ska rankas, så ange kanoniska URL:er (<link rel="canonical">) när du har likartat innehåll på flera URL:er.
Säkerhet (HTTPS): Google gick ut 2014 med att HTTPS (att sajten har SSL-certifikat, alltså att URL börjar med https://) är en lätt positiv rankingfaktor. Det är en så liten viktning att du inte “kommer etta bara för att du har SSL”, men idag förväntar sig användarna det ändå. Kör din sajt alltid på HTTPS – numera markerar webbläsare tydligt om en sida är “Inte säker” om den är HTTP.
Mobil-first & responsiv design: Som nämnt, Google indexerar idag de flesta sajter utifrån mobilversionen. Om din sajt är responsiv betyder det att mobil- och desktopversionen är samma HTML, så då är du safe. Om du däremot har en separat mobilsite (m.dinsite.se t.ex.) måste du se till att den har samma viktiga innehåll och taggar som desktopsiten. Google kan annars indexera mobilversionen (som de ser som “huvud”) men om den saknar något som fanns på desktop kan det påverka rankingen negativt. Bäst praxis för modern SEO är att ha responsive design som anpassar layouten men inte stryker innehåll för mobil.
Web Core Vitals & Page Experience: Förutom hastighet ingår i Googles page experience även saker som mobilvänlighet (ingen föråldrad Flash, innehåll som inte kräver horisontell scroll etc.), att sajten inte har intrusive interstitials (störande popup-fönster som täcker innehåll direkt när man går in – det kan faktiskt skada rankingen om de är för aggressiva), och att sajten laddar stabilt (ingen skiftande layout). Dessa är i grunden saker som förbättrar användarnas upplevelse, och Google anser att om många användare ogillar att besöka din sida (p.g.a. seg, buggig, irriterande) så är det en dålig sökträff att visa upp. Så teknisk SEO är lika mycket användaroptimering.
Logganalys & crawl budget: Stora sajter (tiotusentals sidor +) kan behöva optimera för att Googlebot ska hinna crawla dem effektivt, en så kallad crawl budget. Internt länkade strukturer, sitemaps, och att undvika duplicerade sidor hjälper. Vanliga företagssajter med under 1000 sidor behöver sällan oroa sig för crawl budget, men enorma e-handelssajter kan behöva titta på det. Man kan analysera serverloggar för att se var Googlebot spenderar tid och om den fastnar i återvändsgränder.
Structured data & Knowledge Graph: Tekniskt kan man även lyfta att Google byggt en Knowledge Graph (kunskapsdatabas) som ibland visas som informationspaneler vid vissa sökningar (t.ex. om du söker ett känt företag eller person). För SEO innebär detta att man kan optimera sin närvaro i denna graf genom strukturerad data som schema.org eller via Google My Business (för lokala företag). För ett företag som vill ranka i lokala sökningar är teknisk optimering av sin Google Business-profil, NAP (Name Address Phone) data, recensioner etc. en del av “lokal SEO” tekniken.
Sammanfattningsvis för teknisk SEO: det gäller att undanröja hinder och leverera innehållet snabbt och smidigt. Google har ingen avsikt att låta en sajt ranka högt om den ger en dålig upplevelse för användaren som klickar in. Och innan dess måste Google överhuvudtaget kunna tillgängliggöra innehållet. Så ta hand om de tekniska detaljerna – de må vara “osynliga” för framgången, men när de brister märks det.
(TIPS: Använd verktyg som Google PageSpeed Insights, Lighthouse, eller Pingdom för att analysera din hastighet och få förbättringsförslag. Och använd gärna ett SEO-crawler (som Screaming Frog eller Sitebulb) på din sajt för att se den ungefär som en sökmotor gör – det kan avslöja döda länkar, tunna sidor, dubbletter, felaktiga taggar etc.)
Om innehåll är kung så är länkar drottningen inom SEO. Off-page-faktorer, framförallt inkommande backlinks (d.v.s. andra webbplatser som länkar till din), utgjorde Googles revolutionerande skillnad när de lanserades. Google behandlade länkar som “röster” för kvalitet – tanken är att om många andra sajter hänvisar till din sida, måste det finnas något värdefullt där. Alla länkar är dock inte lika mycket värda, och Google har genom åren utvecklat mycket sofistikerade metoder för att utvärdera länkar. Här bryter vi ned hur länkars påverkan fungerar och reder ut några myter kring dem.
PageRank är algoritmen som lade grunden för Googles framgång. Uppfunnen av Larry Page (därav namnet), och patenterad 1998, var PageRank ett sätt att mäta en sidans “vikt” på webben baserat på länkarseobythesea.com. Förenklat: Varje länk till en sida räknas som en röst, och ju fler röster en sida har (särskilt från sidor som själva har många röster), desto högre blir sidans PageRank-score. En sida med hög PageRank tenderade att ranka högre än en med låg, allt annat lika. PageRank-värdet sprids också vidare – om din sida länkar ut till andra så delar den med sig av sin auktoritet. Detta skapade en kedja av värde genom hela länknätet på webben.
Det ursprungliga PageRank-patentet gick ut 2018seobythesea.com, men långt innan dess hade Google börjat förfina länkanalysen. Redan 2006 ansökte Google om ett patent som uppdaterade PageRank-modellen och införde “dämpningsfaktorer” baserat på avstånd i länknätetpulse2.com. Ett av de mest intressanta efterföljande patenten är “Producing a ranking for pages using distances in a web-link graph” (beviljat 2015). Det beskriver en metod där man väljer ut ett antal högkvalitativa “seed”-sidor (exempel som nämns är Google Directory och New York Times – betrodda, innehållsrika sidor) och beräknar avståndet (i länkhopp och länkstyrka) från dessa betrodda sidor till alla andra sidor på webbenpatents.google.compatents.google.com. Tanken är att sidor som är närmare dessa hubbar av kvalitet i länkdiagrammet troligen själva är mer kvalitativa. Varje länk ges en viss längd/vikt baserat på dess egenskaper (t.ex. kanske en länk från en pålitlig myndighetssajt ses som kortare avstånd än en länk från en okänd blogg)patents.google.com. Ju kortare sammanlagd avstånd från seed-sidorna till din sida, desto högre ranking-score kan din sida fåpatents.google.com. Detta påminner starkt om konceptet “TrustRank”, som är känt i SEO-kretsar: att länkar från betrodda sidor förmedlar en slags tillits-poäng, medan länkar från avkrokar långt ut i länköknen inte väger lika tungt.
Vad betyder det här i praktiken? Jo, kvalitén på dina backlinks är avgörande. En enda länk från, säg, sv.wikipedia.org eller från di.se (om du har ett företag och Dagens Industri skriver om dig) kan vara guld värd, eftersom de sajterna i sin tur har hundratusentals andra sajter som länkar till dem – de är centrala noder med hög “link equity”. Så när de pekar på dig, överförs en del av den styrkan. Att däremot skaffa 100 länkar från små kataloger eller okända bloggar med tveksam trovärdighet kanske inte alls hjälper – i värsta fall kan det skada (mer om det i spam-avsnittet).
En viktig insikt med PageRank är också att länkar fungerar som röstbärare även när du själv inte nämner ett sökord. Om många webbplatser helt enkelt länkar ordet “SEO-byrå” till din sida, så vet Google att din sida sannolikt handlar om SEO-byråer även om du själv inte upprepat ordet massor av gånger på sidan. Anchor-texter (länktexterna) spelar roll i att signalera relevans – detta ledde tyvärr tidigare till överdriven “anchor text-optimering”, där folk gjorde alla länkar till sin sajt exakt på sitt nyckelord (t.ex. 100 länkar med texten “köpa lägenhet Malmö”). Google slog ned på onaturliga länkprofiler med Penguin-algoritmen 2012. Idag är det bäst med en naturlig mix av länktexter – några med ditt nyckelord, många med ditt företagsnamn eller URL, några med generiska texter (“läs mer” etc.). Det ser mer organiskt ut, och risken för straff minskar.
I SEO:ns barndom uppstod en industri kring att skaffa så många länkar som möjligt, oavsett varifrån. Man skapade länkfarmar, kataloger, spam-kommentarer med länkar – allt för att manipulera PageRank. Google blev dock snabbt medveten om detta och har investerat mycket i att skilja ut bra länkar från dåliga.
Patent och dokumentation antyder flera sätt Google utvärderar länkars kvalitet på:
Trust & Authority: Som nämnt, länkar från trusted seed sites är mer värda än länkar från obskyra sajter. Enligt patentet om länkavstånd kan vissa sidor ges högre vikt (kanske manuellt utvalda eller algoritmiskt identifierade auktoriteter)patents.google.compatents.google.com. Det ligger alltså i ditt intresse att få länkar från ansedda källor i din bransch: stora nyhetssajter, universitet, myndigheter, branschorganisationer, välkända bloggare etc.
Relevans: Google förstår i viss mån om en länk kommer från en sida inom samma ämnesområde som din. Länkar från en modeblogg till din webbshop för kläder är logiska och bra. Länkar från en slumpmässig elektroniktidning till din modewebbshop är inte lika relevanta (kan fortfarande ge PageRank, men mindre). Det har diskuterats att Google kan ha “ämneskategorier” för länkar – t.ex. via Topical PageRank eller liknande – men exakt implementation är okänd. Dock är det sunn logik att försöka få länkar där det är rimligt att din sajt nämns.
Platsen för länken: En länk som är redaktionellt inbäddad i en artikels brödtext (“content link”) anses mer värdefull än t.ex. en sidfotslänk eller en listad länk i en partnerlista. Google har patent om en modell kallad Reasonable Surfer, som antyder att länkar inte är lika – en länk som sannolikt får många klick (t.ex. en framträdande länk i början av en artikel) kanske ges mer vikt än en som få klickar (t.ex. sidfotens “alla rättigheter förbehålls”). De har inte officiellt bekräftat hur de viktar positionsmässigt, men SEO-experiment har ofta visat att in-content-länkar ger bättre effekt.
Antalet utgående länkar på sidan: En länk från en sida som länkar till tusentals andra kanske ger mindre juice än en länk från en sida som bara länkar ut till få. (Original-PageRank formeln delar ju en sidas värde mellan alla utgående länkar.) Så en länk i ett “länkbibliotek” med 300 externa länkar är av ringa värde, medan en länk i en specialiserad artikel med bara 2-3 externa hänvisningar är mer koncentrerad.
Google har också utvecklat mycket effektiva spamfilter för länkar. De har patent och algoritmer för att upptäcka onaturliga länkmönster – t.ex. att många nya länkar dyker upp från irrelevanta sajter med liknande anchor-text kan trigga en flagga. Google Penguin (numera inbyggd i algoritmen realtids) nedvärderar eller ignorerar spam-länkar. Det innebär att om du eller din SEO-byrå försöker manipulera via masslänkbygge på tvivelaktiga sätt, är chansen stor att antingen ingen positiv effekt uppstår (Google filtrerar bort dem) eller, värre, att din sajt straffas om länkmönstret anses vara ren manipulation. Google har till och med möjligheten att ge manuella straff (Manual Actions) för “Unnatural links”, vilket kräver att du rensar upp i länkarna och skickar en reconsideration request.
Så, kvalitet trumfar kvantitet. En handfull starka länkar slår tusen dåliga. SEO-experten Bill Slawski rankade faktiskt “Phrase-Based Indexing”-patenten (som inkluderade länkspam-detektion) som några av de viktigaste SEO-patenten någonsingofishdigital.com. Dessa tekniker låter Google känna igen tecken på länkmanipulation och justera rankingen därefter.
Hur skaffar man då kvalitetslänkar? Det är den eviga utmaningen i SEO. Några strategier:
Skapa “länkbeten”: Exceptionellt bra innehåll (studier, guider, infografiker, verktyg) som folk vill länka till naturligt.
Outreach: Kontakta relevanta bloggar, tidningar, branschwebbplatser och tipsa om ditt innehåll om det passar deras publikum. Ingen spam, utan genuina förslag.
PR och förtjänt media: Få pressomnämnanden via t.ex. pressmeddelanden eller nyhetsvärdiga utspel. Media-sajter har hög auktoritet.
Partnerskap: Samarbeta med andra inom din nisch – gästblogga, skriv expertråd på andras sajter (där du ibland får en länk tillbaka i författarpresentation).
Lokala / branschlistningar: För lokala företag, se till att vara med i respekterade kataloger som Hitta.se, Allabolag, branschspecifika kataloger osv. De ger kanske inte superstyrka, men skadar inte om de är äkta.
Sociala medier & delningar: Även om sociala signaler inte direkt ökar din Google-ranking (mer om det senare), kan synlighet i sociala medier leda till att rätt personer ser ditt innehåll och väljer att länka till det från sina sajter. Så det är en indirekt länkbyggesstrategi.
Undvik link schemes: Byt inte länkar i stor skala (“länkbytenätverk”), köp inte länkar som är uppenbart manipulerande. Google är tydliga med att köpta länkar som passerar PageRank strider mot riktlinjerna. Om du ändå köper, se till att de är märkta med rel="nofollow" eller rel="sponsored" så att du inte riskerar straff – men då ger de å andra sidan ingen rankningsboost.
Anchor-text är alltså den klickbara texten i en länk. Som vi berörde är anchor-text en signal om vad målsidan handlar om. Om tio olika auktoritativa sidor länkar till dig med texten “SEO-byrå Stockholm”, kommer Google med stor sannolikhet att associera din sida med just SEO-byråer i Stockholm. Historiskt var anchor-text en mycket kraftfull signal – så pass att Google fick tona ned dess vikt när manipulatörer utnyttjade det. (Minns “Google-bombing” där folk orkestrerade många länkar med en viss fras för att få upp en sida – klassiskt exempel: sökning på “miserable failure” ledde till Vita Husets sida om George W. Bush, p.g.a. illasinnade länkare.)
Numera används anchor-text med lite mer förnuft i algoritmen. Den är fortfarande värdefull om den kommer från relevanta, trovärdiga sidor. Men Google förväntar sig en naturlig fördelning. Enligt ett Google-patent om länkanalys och text (baserat på phrase-based indexing) kan fraser i anchor-texter som pekar till en sida förstärka sidans relevans för de frasernacognitiveseo.com. Så ja – anchor-text hjälper, men man ska inte överdriva.
Ett annat intressant patent av Google beskriver att de kan väga in “context vectors” kring länken, dvs. omgivande text runt länken, för att få mer förståelse av sammanhangetcognitiveseo.comcognitiveseo.com. Så inte bara anchor-orden i sig, utan även vilka ord som ofta finns i närheten av länkarna till en viss sida, kan indikera sidans ämne. T.ex. om många som länkar till din receptblogg skriver något i stil med “Här är ett jättebra pannkaksrecept jag hittade”, då fattar Google att din sida är starkt relaterad till pannkakor även om själva länktexten kanske bara är “hittade”.
Varumärkeslänkar: Länkar som bara är ditt varumärkesnamn (t.ex. “Besök Acme AB för mer info”) är också viktiga. De ger dig auktoritet utan att se spammiga ut. Google vill gärna se att ett webbplats bygger upp ett naturligt länkprofil över tid, där varumärkesomnämnanden och URL-länkar är vanliga. Det speglar äkta word-of-mouth.
NoFollow-länkar: Nuförtiden stöter man på många länkar som har attributet rel="nofollow" (t.ex. de flesta länkar i Wikipedia). Traditionellt har Google ignorerat PageRank-flöde från nofollow-länkar – de “räknades inte”. Men 2019 ändrade Google policyn något och sa att de ser nofollow mer som en hint än en absolut regel. Det betyder att de kanske ändå använder nofollow-länkar i sin bedömning, särskilt för upptäckt av sidor. Men generellt, nofollow-länkar har liten direkt SEO-effekt. Dock kan de ge trafik, synlighet och trovärdighet, vilket indirekt kan leda till andra fördelar (någon som klickar på en nofollow-länk kanske gillar ditt innehåll och länkar dofollow från sin egen blogg senare).
För att knyta ihop länkdiskussionen måste vi prata om dåliga länkar och hur man hanterar dem. Som nämnt kan spammy länkar skada din sajt. Google blir dock allt bättre på att helt enkelt ignorera dåliga länkar istället för att straffa. I de flesta fall behöver du inte oroa dig om du råkar få några skräplänkar – de flesta sajter får t.ex. automatiserade spamkommentar-länkar då och då. Google förstår att du inte bad om dem.
Men om du av historiska skäl eller p.g.a. en dålig SEO-byrå har massvis av manipulativa länkar (köpta länkar i bloggposter, länkhjul, privata bloggnätverk m.m.), kan det vara värt att använda Googles Disavow Tool. Där kan du skicka in en lista på domäner eller specifika länkar som du tar avstånd från, varpå Google inte räknar dem alls i rankingalgoritmen. Detta verktyg kom efter Penguin-paniken när många sajter straffades för sina länkprofiler. Idag säger Google att man bara ska disavowa om man har ett manuellt straff eller är helt säker på att länkarna är skadliga, eftersom felaktig disavow av bra länkar faktiskt kan göra mer skada än nytta.
En speciell kategori av länkar är de från sociala medier. Ofta ställs frågan: “Räknar Google länkar från Facebook och Twitter?” Svaret: de behandlas som vilken annan länk som helst, men nästan alla stora sociala sajter sätter nofollow på utgående länkar, så de ger inget PageRanksearchenginejournal.com. Google kan indexera t.ex. en offentlig tweet om den inte är blockerad, och en tweet-länk kan ge lite trafiktillskott, men det pushar inte rankingen direkt. Google har experimenterat förr med att använda “sociala signaler” – t.o.m. har ett patent som beskriver att man skulle kunna boosta resultat om någon i din sociala graf gillat demsearchenginejournal.com. Men de har senare avstått från detta i webbsöket, delvis p.g.a. att data från sociala plattformar inte alltid är tillgänglig eller pålitligsearchenginejournal.com. Med det sagt: sociala medier är fantastiska för att sprida ditt innehåll och därmed indirekt kanske generera riktiga länkar. Men att få 1000 Facebook-delningar utan att en enda extern sajt länkar – det kommer inte flytta nålen i Google.
Mytvarning: Vissa gamla myter kring länkar är att “ju fler desto bättre” – vi har nu sett att det är fel; kvalitet gäller. En annan är att internationella eller utländska länkar inte räknas – inte sant, en länk är en länk oavsett språk, om den är relevant. Språkbarriären kan påverka relevansen (en japansk sida om din svenska tjänst är kanske inte top-notch länk rent kontextuellt), men PageRank-mässigt spelar det ingen roll. Ytterligare en myt: PageRank-sculpting med nofollow – förr trodde man man kunde styra sin interna PageRank genom att sätta nofollow på oviktiga länkar som “Om oss” etc. Google har dock klargjort att nofollowade interna länkar inte magiskt ger mer juice åt de andra länkarna; istället försvinner den delen i ett svart hål. Så det är onödigt att nofollowa egna meny-länkar t.ex. (Fokusera hellre på att ytanligt viktiga sidor får fler interna länkar).
Sammanfattningsvis: Backlinks är fortfarande en av de starkaste rankingfaktorerna, särskilt i konkurrensutsatta sökord. I en bransch där alla toppresultat har relevant och bra innehåll, är det ofta länkprofilen som skiljer vem som tar förstaplatsen. Google använder länkar för att bedöma både populariteten och auktoriteten hos en sida. De patentskyddade algoritmerna bakom har förfinats för att motverka fusk, men grundidén står sig: förtjänade länkar från andra sajter är en stor förtroendesignal. Arbeta därför långsiktigt på att bygga upp en stark länkprofil på ett etiskt sätt.
En fascinerande (och kontroversiell) del av modern SEO är frågan om användarbeteenden påverkar rankingen. Med användarbeteenden menar vi saker som hur många som klickar på ditt resultat (CTR), hur länge de stannar på sidan (dwell time), om de snabbt studsar tillbaka till Google (bounce-back eller pogo-sticking), osv. Google samlar in enorma mängder data om hur folk interagerar med sökresultaten och webbsidor (bl.a. genom Chrome och Android). Men – i officiella uttalanden har Google flera gånger sagt att de inte använder sådana mätetal i algoritmen, åtminstone inte i någon större utsträckning. Anledningen de anger är att användarsignaler är för brusiga och manipulerbaragofishdigital.com.
Samtidigt finns det patent som pekar i motsatt riktning. Google har patent som beskriver metoder där sidor som användare besöker längre kan få en ökad relevanspoänggofishdigital.com. I ett av Googles patent (uppdaterat flera gånger sedan ~2013) beskrivs en modell där man räknar andelen “långa besök” en sida får från sökresultatengofishdigital.com. Enkelt uttryckt: om många som klickar på resultat A stannar där länge innan de återvänder till Google, medan de som klickar resultat B snabbt kommer tillbaka och klickar nåt annat, då kan resultat A uppfattas som mer relevant och eventuellt ranka högre framövergofishdigital.com. Patentet nämner att man kan viktas utifrån query-typ och användartyp ocksågofishdigital.com, vilket låter väldigt likt hur en mänsklig analytiker skulle resonera (t.ex. att för “köp tv” kanske ett kort besök kan betyda att användaren hittade priset snabbt och är nöjd, medan för “lär dig franska” ett kort besök tyder på missnöje – alltså olika tolkningar beroende på sökintention).
Google är sannolikt försiktig med att medge användandet av sådana signaler offentligt eftersom det skulle uppmuntra klick-manipulation (folk skulle kunna försöka ordna fejkklick för att höja sin CTR). Men indirekta bevis talar för att användarbeteende faktiskt spelar roll i vissa fall. Ett känt experiment av Rand Fishkin visade att när han uppmanade massa följare att googla ett visst ord och klicka på ett visst resultat, så steg det resultatet temporärt i rankingen – möjligen p.g.a. ökad CTR och dwell time. Google har dock kallat sådana tester inkonklusiva, och menar att de robusta systemen inte så lätt luras av tillfälliga blipparsearchenginejournal.comsearchenginejournal.com.
Låt oss bryta ner de olika beteendesignalerna:
CTR (Click-Through Rate) på resultatet: Det är andelen som ser ditt resultat som faktiskt klickar. Ett högt CTR kan indikera att ditt resultat är attraktivt (bra titel/description) och relevant för sökningen. Google säger att de inte direkt använder CTR för rankning – med motivet att det går att rigga och att vissa sökningar naturligt har olika CTR-fördelningar (t.ex. en brand-sökning där första resultatet alltid får nästan alla klick). Men som nämnt, patent finns som tyder på att de åtminstone experimenterat med det. Bing har däremot bekräftat att de visst tittar på klickfrekvens och liknande engagemangsearchengineland.com. Bing explicit säger att de kan använda klickfrekvens, dwell time och om användaren snabbt ändrar sökfrågan som faktorer för att justera rankningsearchengineland.com. Google “off the record” uttalanden (från anonymiserade Googlers) har ibland indikerat att CTR kan användas för A/B-tester internt på Google – alltså om de vill utvärdera två algoritmversioner kan de se om användare klickar/är nöjd olika mycket.
Dwell Time / Time on Page: Hur länge en användare stannar på sidan innan hen går tillbaka. Om någon klickar på ditt resultat och inte återvänder till söket alls (förmodligen för att de fick sitt svar och är nöjda), kallas det ibland en “long click”. Google patentspråk beskriver det som att man jämför antalet längre visningar mot kortare visningargofishdigital.com. Ett högt förhållande av långa visningar tyder på att sidan löste uppgiften. Bounce rate är ett liknande mått – men ska inte förväxlas: bounce rate i Google Analytics betyder att användaren lämnade utan att klicka vidare på din sajt. En hög bounce rate kan vara okej om sidan gav svaret direkt (t.ex. en bloggpost som besvarade frågan; användaren behövde inte mer). Google har upprepat att de inte använder Google Analytics-data eller bounce rate i rankingensearchenginejournal.comsearchenginejournal.com, av flera skäl: alla sajter använder inte GA, det är lätt att manipulera, och bounce rate är en oprecis indikator på nöjdhet (som vi såg kan en nöjd användare ändå “bounca” om han fick svaret direkt). Däremot dwell time mätt via återvändande till SERP kan vara mer telling: Om en användare klickar ditt resultat och sedan inte klickar något annat resultat, är det en bra signal. Om de klickar ditt resultat, studsar tillbaka inom några sekunder och klickar ett annat – det kallas pogo-sticking – då var ditt resultat troligen inte tillfredsställande.
Användarengagemang på sidan: Detta är utanför Googles direkt kontroll, men man kan tänka sig att Chrome-webbläsaren kan skicka anonym data om scroll-djup, interaktioner etc. Det är spekulativt, men Google har explicit sagt att Chrome inte används på det sättet för sökrankning (igen kanske av förtroendeskäl och integritetsdebatter). De har så mycket annat att ta av.
Så vad ska man som sajtägare göra åt detta? Optimera för användaren – se till att ditt innehåll engagerar, ge svaret så snabbt som möjligt men erbjud också möjligheter att fördjupa sig (t.ex. relaterade artiklar, video, etc.). Detta ökar chansen att användaren inte känner behov av att gå tillbaka till Google. I praktiken är detta samma sak som att göra bra innehåll, så att fokusera på användarupplevelsen är att slå två flugor i en smäll – nöjda användare och potentiellt nöjd Google-algoritm.
En intressant detalj: Google har ett känt kvalitetsmått de internt kallar “Long Clicks, Short Clicks”. Målet för sökmotorn är att maximera long clicks (tecken på att sökresultatet de levererade var rätt). De kan mäta hur ofta användarna reformulerar sin sökning också – om många som klickat ett resultat sedan ändrar sökfras tyder det på att inget resultat var perfekt för första frasen. Detta påverkar hur Google justerar sina algoritmer globalt. Vid specifika queries som t.ex. “köpa smartphone” kanske de ser att användare ofta klickar flera resultat och ändå inte är nöjda – då kan Google anpassa genom att t.ex. lägga in fler bilder, eller ett shopping-snurr, eller lyfta fram mer välrenommerade sajter i just den SERPen.
Bing vs Google här: Som sagt, Bing använder engagemang som en rankningssignal (de har färre användare, men de använder definitivt data från webbläsare som Edge/Explorer och Windows 10-sökningar). Google säger att de inte använder det – men många SEO:are tror att Google i viss mån väger in användarsignaler i sina AI-modeller. Troligen är det inte en direkt faktor (som i “användar X stannade 5 min => +0.1 rank”), men det kan vara en del av maskininlärningsunderlaget för att utvärdera algoritmförändringar.
Myt att slå hål på: Att man kan öka sin ranking enbart genom att sänka sin bounce rate eller öka time on site är inte sant som en enkel mekanik. Till exempel, vissa SEO-företag har sålt tjänster om att skapa artificiell trafik som klickar runt på din sida för att “visa Google” att folk gillar den – det är slöseri med pengar. Google ser med skepsis på för bra för att vara sant-mönster, och som de själva påpekat: de har system för att upptäcka om någon försöker fejka engagemangsearchengineland.com. Så försök inte manipulera detta; lägg energin på genuina förbättringar av innehåll och upplevelse istället.
Avslutningsvis: Användarsignaler är viktiga – inte minst för att de korrelerar med om folk konverterar och blir glada besökare hos dig. Men de är svåra att kvantifiera. Du kan dock tryggt anta att om din sida får rykte om sig (i Googles ögon) att göra sökarna nöjda, så kommer du klättra. Hur får man det ryktet? Genom allt vi diskuterat: kvalitativ, relevant information, bra UX, snabb prestanda, samt att du förtjänar förtroendelänkar från andra. Då kommer användarna stanna hos dig, och även om Google officiellt inte “räknar sekunder”, så blir det en självförstärkande loop – fler som rekommenderar din sida, färre som studsar, och algoritmen belönar gradvis.
I Googles riktlinjer för kvalitetsgranskare (dokument som används för manuell utvärdering av sökresultat) betonas begreppet E-E-A-T: Experience, Expertise, Authoritativeness, Trustworthiness – alltså erfarenhet, expertis, auktoritet och trovärdighet. Även om E-E-A-T inte är en direkt algoritm i sig, så speglar det vad Google strävar efter att premiera. Vi har redan varit inne på flera av dessa punkter i tidigare avsnitt, men låt oss sammanfatta i kontexten E-A-T (Erfarenhet är ett relativt nytt tillägg, men ligger nära expertis).
Expertis – Innebär att innehållet är skapat av någon som besitter kunskap. För en sida som ger medicinska råd vill Google se “Your Money or Your Life” (YMYL) expertis – t.ex. att en legitimerad läkare skrivit eller åtminstone granskat. För en sida om ett hobbyämne kan expertis vara att författaren tydligt har lång erfarenhet inom hobbyn. Praktiskt för SEO betyder det att det är bra att tydligt visa upp författarinformation, referenser och credentials. Har du experter i ditt team – lyft fram dem. Gör author pages med bio och meriter, länka gärna till deras LinkedIn eller publikationer. Detta hjälper sökmotorer (och användare) att lita på innehållet.
Erfarenhet – Google vill se om innehållsskaparen har personlig erfarenhet av det den skriver om. T.ex. recensioner: har personen faktiskt använt produkten? Bloggposter: pratar de av egen erfarenhet? Denna faktor är svår mätbar algoritmiskt, men Google’s riktlinjer säger att content som demonstrerar första-hands erfarenhet kan vara mer värdefullt (ex. en person som bloggar om sin cancerbehandling har “experience” vs en som bara skriver av info från andra sidor).
Auktoritet – Det syftar på sajtens och författarens auktoritet inom ämnet. Här kommer länkar och omnämnanden in i bilden kraftigt. Om många i branschen refererar till din sajt, ser Google dig som en auktoritet. Wikipedia-artiklar rankar bra för att Wikipedia som helhet är en auktoritativ källa (länkas från överallt). Som företag kan du bygga auktoritet genom att bli en go-to resurs – t.ex. om du ständigt publicerar originalforskning eller djupa guider som andra hänvisar till. Auktoritet kan också mätas genom brand searches – om många söker på ditt varumärke + ämnet är det en signal att du är känd i området.
Trovärdighet – Inkluderar aspekter som transparens, ärlighet, att inte ha vilseledande information. Faktorer som en integritetspolicy, kontaktinformation, att sidan är uppdaterad när det behövs, spelar in. Särskilt för nyheter och YMYL vill Google lyfta trovärdiga källor (t.ex. etablerade nyhetsmedier över clickbait-sidor). Ett Google-patent från 2015 om “Knowledge-Based Trust” försökte till och med värdera sidor efter faktagranskning mot en kunskapsbas, men det är oklart om det implementerats. Troligtvis används mer indirekta metoder – som att betrodda sidor (t.ex. officiella källor) rankar bättre för faktafrågor.
För din SEO innebär E-A-T att du bör:
Bygga upp ditt varumärke och rykte online. Få bra recensioner om du är företag, se till att forum och bloggar talar gott om er, för Google crawlar även sådant (även om sentimentanalys är svårt, så kan associationer spela roll – t.ex. om ditt varumärke ofta nämns nära ord som “bluff” eller “scam” kan det vara negativt).
Länka ut till källor och visa källor för påståenden. Bing sa det rakt ut: artiklar med referenser anses högre kvalitetsearchengineland.com. Google har ingen officiell sats om det, men en väldokumenterad artikel med utgående länkar till auktoritativa referenser kan ge intryck av kvalitet.
Hålla innehåll uppdaterat. Särskilt om du skriver om något där fakta förändras (teknik, lagar, priser etc.), uppdatera innehållet regelbundet. Google har koncept som Query Deserves Freshness (QDF), där färskare innehåll får en boost för vissa sökningar (t.ex. “2025 skattetabell” vill folk ha aktuell info). Patent finns kring hur Google avgör om en query är känslig för ny information. Att din sida har en datumstämpel och att du förnyar den kan hjälpa i sådana fall. Men för tidlösa queries spelar “färskhet” mindre roll efter en viss punkt.
Sajtens kvalitet i helhet: Google tittar på helhetskvalitén på en sajt, inte bara enskild sida. Om du har några få sidor som är fantastiska men resten är skräp (skräpartiklar, tunt innehåll, massor av affiliate-länkar med lite värde), kan det dra ned helhetsintrycket. Bästa praxis är att antingen förbättra eller ta bort tunna och meningslösa sidor. Ibland kan noindex på mindre viktiga sidor vara en lösning för att inte spä ut sajtens auktoritet.
Även om det inte finns en “E-A-T score” så att säga, så inkarneras E-A-T i de signaler vi redan diskuterat: länkar (auktoritet), användarbeteenden (förtroende), innehållets djup (expertis), och tekniska signals (säker sajt, inga bluff-taktiker).
Ett bra exempel: Under “fake news”-debatten justerade Google sin algoritm för att betona auktoritativa källor högre. Detta var ingen enskild faktor, utan en tuning av många signaler (som länkar, straff av sidor med låg trovärdighet etc.). Så i SEO behöver man tänka holistiskt. Att lägga till en författarbiografi och hoppas på underverk funkar inte om inte resten av bitarna är på plats. Men om allt annat är lika mellan två konkurrenter, och den ena tydligt visar upp expertförfattare och bra referenser medan den andra är anonym och utan källor, då tror jag den första har övertaget – något även Bing’s folk antyddesearchengineland.com.
SEO-branschen har funnits i decennier nu, och tyvärr florerar det en del myter och missförstånd. Låt oss direkt bemöta några av de vanligaste med hjälp av vad vi gått igenom ovan:
“Meta keywords-taggen ökar rankingen.” – Nej. Som vi klargjorde använder Google inte `<meta name=”keywords”> alls i rankningendevelopers.google.com. Andra sökmotorer? Förr använde Yahoo det, men inte längre. Lägg inte krut på det. Meta description hjälper inte rank direkt heller (även om en bra description kan ge fler klick).
“Google använder Bounce Rate som rankingfaktor.” – Nej. Bounce rate är ett Analytics-mått och Google har flera gånger sagt att de inte använder Google Analytics-data i sökalgoritmensearchenginejournal.com. En hög bounce rate kan indikera något om sidan, men Google drar inga direkta slutsatser av ditt GA-konto. Däremot, user behavior i form av snabb retur till SERP (pogo-sticking) är något Google troligen beaktar i sina kvalitetskontroller, men det är inte samma sak som GA bounce rate.
“Ju fler sidor och innehåll, desto bättre SEO.” – Nja. Kvalitet trumfar kvantitet. Det är en myt att du måste pumpa ut innehåll varje vecka för att ranka. Om du kan hålla högt tempo utan att tumma på kvalitet – gör det. Men en riktigt bra, djup sida kan ranka bättre än tio hafsiga sidor. Faktum är att för mycket lågkvalitativt innehåll kan dra ned sajtens totala anseende (Panda-algoritmen slog mot “content farms” som massproducerade tunna artiklar). Satsa på E-E-A-T-driven content hellre än att jaga volym.
“SEO är engångsjobb.” – Falskt. Sökmotorernas algoritmer förändras (Google gör tusentals små ändringar per år), konkurrenter förbättrar sina sajter, och ditt innehåll blir inaktuellt. SEO är en löpande process. Du kan få bra resultat med en engångsinsats om konkurrensen är låg, men i längden krävs kontinuerlig optimering, innehållsuppdatering, teknisk underhåll och länkbyggande. Tänk SEO som att odla en trädgård, inte att bygga i betong.
“Man kan garantera #1 på Google.” – Akta dig för den myten. Ingen legitim SEO-konsult kan garantera specifika rankingar, särskilt inte på Google, eftersom vi inte kontrollerar Google. Om någon lovar dig guld och gröna skogar (typ “inom 1 månad är du etta på alla dina sökord!”) så använder de sannolikt skumma metoder eller pratar osanning. SEO tar tid och resultat beror på många faktorer utanför din kontroll (t.ex. vad konkurrenter gör).
“Man måste betala för Google Ads för att ranka bättre.” – Nej, nej, nej. Detta är en seglivad myt, kanske för att det låter logiskt att Google skulle belöna sina annonskunder. Men Google vill inte blanda ihop organisk ranking med annonsaffären – trovärdigheten i sökresultaten står på spel. Googles representanter (Matt Cutts, John Mueller, Danny Sullivan m.fl.) har alla bekräftat att köp av annonser inte påverkar organisk rankningsearchenginejournal.comsearchenginejournal.com. Och som vi resonerade: hade det varit så, skulle hela det organiska systemet kollapsa av missbruk från storkunder. Det finns alltså ingen “pay to win” i SEO – du kan köra hur mycket Ads du vill, men om din SEO suger kommer du ändå inte synas organiskt.
“Sociala medie-signaler direkt påverkar rankingen.” – Inte direkt. Som vi diskuterade under länkar och användarbeteenden: Google använder inte likes, shares eller antal följare som direkta rankningssignalersearchenginejournal.com. Däremot är sociala medier viktiga indirekt – de ger exponering, vilket kan ge länkar och trafik. Men att ha 100k Facebook-följare ger dig ingen fördel i algoritmen om inte de följarna genererar andra effekter (som länkbygge, brand searches etc.).
“Längre innehåll rankar alltid bättre.” – Inte automatiskt. Det stämmer att många studier (t.ex. från Backlinko, SEMrush) funnit korrelationer mellan långt innehåll och hög ranking. Men korrelation är inte orsak. Långt innehåll kan ranka bra eftersom det ofta täcker ämnet bredare (vilket matchar phrase-based indexing-tänket) och kanske får mer länkar för att det anses värdefullt. Men en sida ska vara så lång som behövs – inte längre. Om du kan besvara en fråga på 500 ord, tvinga den inte att bli 1500 bara för SEO. Google vill hellre ha komplett innehåll än bara “långt” innehåll. Och ibland vill användarna ha ett snabbt svar (då kan en kompakt sida vinna). Alltså, skriv hellre uttömmande men koncist än fluffigt ordbajseri. Kvalitet per ord är nyckeln.
“Exact-match domains (EMD) garanterar topposition.” – För 10+ år sedan hade domännamnet stor inverkan. T.ex. flights.com skulle ranka lätt för “flights”. Idag har Google tonat ned det mycket. Ett nyckelord i domän kan ge en mindre relevanssignal, men Google har också en tidigare uppdatering benämnd “EMD update” som såg till att spammy domäner inte auto-rankar. Så köp inte en domän bara för att den matchar sökordet i tron att SEO-magin är löst. Fokusera hellre på branding. (Ett undantag: För helt nylanserade sajter med noll auktoritet kan ett EMD domän hjälpa initialt att vara relevant, men du kan aldrig konkurrera en stark sajt med bara ett EMD om du inte har innehåll och länkar att backa upp det.)
“H1 är viktigare än H2 etc. för SEO.” – Småmyt men värd att nämna: Det är bra att ha H1, men det är inte så att Google räknar poäng baserat på om ordet är i H1 vs H2. Det handlar om struktur. Du bör ha H1 för huvudrubrik, sedan H2/H3 för sektioner. Men om du råkar ha två H1:or av designskäl är det inte hela världen – Google är robust nog numera (även om det inte är optimalt semantiskt). Poängen: följ HTML-standard för rubriker för tydlighetens skull, inte för någon magisk “H1-ranking-boost”.
“Man måste uppdatera sidan ofta för att ranka.” – Inte generellt. Vissa tror att om de bara ändrar lite på sidan varje vecka så “gillar Google att den är uppdaterad”. Sanningen är att relevant uppdatering är bra (om info blivit felaktig eller det tillkommit ny kunskap). Men att ändra några ord fram och tillbaka gör inget för rankingen. Google belönar fresh content när färskhet är en faktor för det sökordet (som nyheter, priser, trender). Men för t.ex. “hur knyter man skosnören” behövs ingen ändring – en bra evergreen-guide från 2010 kan fortfarande ranka #1. Så uppdatera med mening, inte för sakens skull.
“Google föredrar X teknik/CMS.” – Nej, Google bryr sig mest att sidan levererar HTML-innehåll den kan läsa. Så länge din webbplats output är standard, spelar det ingen roll om du använder WordPress, Wix, en egenbyggd plattform, etc. Vissa plattformar kan dock göra teknisk SEO enklare eller svårare. Till exempel WordPress är ganska SEO-vänligt ur lådan och har bra plugins (som Yoast) för metadata, medan vissa hemsidebyggare kan ha begränsningar. Men Google har ingen “CMS-favorit”. Likaledes, Google bryr sig inte om om du skriver i React eller plain HTML så länge innehållet blir synligt. Med modernt dynamic rendering/indexing kan Google indexera även JS-sajter okej. Men prestanda kan lida. Så välj tekniska lösningar utifrån affärs- och användarbehov först, lös SEO-tekniken sedan.
Listan över myter kan göras lång, men ovanstående är de kritiska att avliva. I SEO gör fakta och testning skillnaden – tro inte på självutnämnda guruns påståenden utan evidens. Leta efter bekräftelser i Google-uttalanden, patent, eller bred branschkonsensus baserat på experiment.
Sökmotoroptimering är ett brett fält, men kärnan kan sammanfattas relativt enkelt: Skapa en webbplats som levererar det bästa svaret för användarens sökfråga, se till att webbplatsen är tekniskt tillgänglig och snabb, och bygg upp förtroende genom länkar och varumärkesauktoritet. Google och andra sökmotorer strävar efter att belöna sådana sajter, och de investerar i avancerade algoritmer (ofta patenterade) för att bedöma relevans, kvalitet och trovärdighet.
Vi har sett att mycket stöd för SEO-bäst praxis faktiskt kan hittas i patentskrifter och uttalanden: Googles patentsökta metoder att analysera frasstruktur på sidorgofishdigital.com stödjer rådet att skriva brett och informativt; PageRank och dess efterföljarepatents.google.com visar vikten av länkar, särskilt från betrodda källor; experiment med användarsignalergofishdigital.com antyder att nöjda användare till syvende och sist leder till bättre ranking. Samtidigt har vi slagit hål på myter som inte backas upp av bevis – som meta-taggar som inte användsdevelopers.google.com eller rykten om att man kan betala sig till toppositionsearchenginejournal.com.
SEO för Google i Sverige bör vara ditt primära fokus (givet dess dominans), men genom att göra rätt för Google täcker du i stor grad även Bing och andra. Bing bekräftar många liknande signaler – relevant innehåll med nyckelord och synonymersearchengineland.com, kvalitet och trovärdighet med referensersearchengineland.com, samt användarengagemangsearchengineland.com. Så bra SEO är inte att optimera för en enskild magisk faktor, utan att leverera en helhetsupplevelse som både algoritmer och mänskliga besökare uppskattar.
Avslutningsvis, tänk på SEO som en del av ditt övergripande digitala ekosystem. Framgångsrik SEO handlar inte om att “hacka Google” utan om att förstå Googles mål: ge användaren det bästa svaret. Alla de tekniska tricksen och taktikerna tjänar egentligen detta högre mål. När du planerar ditt innehåll och din sajtstruktur, utgå från användarens behov först. Använd sedan SEO-verktygen – nyckelordsanalys för att veta hur de söker, on-page optimering för att aligna innehållet med söktermerna, länkstrategi för att öka din trovärdighet – för att säkerställa att när du har bäst svar, så förstår Google det och kan ranka dig därefter.
Följ råden i denna guide, och du kommer bygga en stark grund att stå på. Kom ihåg att SEO är en långsiktig investering. Resultaten kommer inte över en natt, men de kommer vara ihärdiga när de väl uppnås. Och kanske det viktigaste tipset av alla: fortsätt lär och anpassa dig. Läs uppdaterade källor, studera faktiska data (din egen trafik, dina konkurrenters sidor, nya patent som publiceras) och var beredd att förfina din strategi. På så sätt ligger du steget före och kan skörda frukterna av toppenplaceringar – mer trafik, fler affärer och ett starkare förtroende hos din publik.
“Jag ser SEO som en vetenskap – inte en trend. För mig handlar det inte om gissningar, utan om att förstå mönstren, matematikens logik och människans beteende bakom varje sökresultat.”