Mitt inlägg här är egentligen en spin-off från den här tråden. Jag blev fascinerad av alla teorier och logiska resonemang som förekom där. Trots alla kloka tankar så lyckades ingen knäcka nöten. Ingen betvivlar att Google använder sig av avancerade filter, men riktigt hur de här filtren fungerar kan ingen svara på.
Här kommer en mycket enkel förklaring till varför Google upplevs som så mycket svårare och mer avancerad än övriga sökmotorer. Google är bättre på att ranka webbsidor än övriga sökmotorer, men jag tror inte den upplevda svårighetsgraden endast beror på mer avancerade algoritmer.
Fakta
När Google crawlar webben så rankar sökmotorn webbsidor. Gör vi en sökning på ett ord så får vi ofta miljontals träffar. Av alla dessa miljoner träffar, så finns det med all säkerhet ett hundratal sidor som av en användare skulle upplevas som relevanta träffar vid en sökning på det specifika sökordet. Google har alltså en del att välja på.
Teori
Jag är övertygad om att det på senare år har tillkommit en mycket liten slumpfaktor i Googles algoritmer för att försvåra för SEO-världen. Man skulle kunna kalla det för ett avsiktligt kaos.
Logiskt resonemang
Av en miljon träffar så har Google alltså ett 100tal webbsidor som är riktigt relevanta att välja på (tror ingen säger emot mig där). Om vi tar en av dessa sidor som normalt rankar på förstasidan och kastar tillbaks den till plats 50 i serpsen, så kan vi lätt ersätta den här sidan med en annan sida som är nästan lika relevant. En vanlig användare som söker på ett ord kommer inte att märka någon kvalitetsförändring i serpsen på grund av den här lilla förändringen. De enda som märker något är folk som jobbar med SEO.
Sidan som vi nu har placerat på plats 50 är ju egentligen en bra sida. Så vi låter den självfallet inte ligga och ruttna på sin dåliga position i all evighet. Om en månad eller två så plockar vi upp den till plats 3 igen (där den låg före fallet). Den vanliga användaren (han/hon som letar information på Google) kommer återigen inte märka någon större kvalitetsskillnad i spersen. Alla SEOáre kommer däremot att klia sig i huvudet och sedan försöka förklara fenomenet.
Begränsningar
Den här kaos-teorin blir bara möjlig och tillämpbar när det finns ett stort urval webbsidor att välja på. Om ett sökord bara levererar 10.000 resultat, så kanske endast tio av dessa är riktigt bra och relevanta. Det här gör att Google slutar slumpa om urvalet blir för litet. Man ser sällan några jättehopp i serpsen för webbsidor som optimerats för lättare och mindre vanliga ord.
Teorins praktiska konsekvenser
Det finns filter och Google straffar sidor och lägger andra under tillfällig bevakning. SEO-världen listar snabbt ut hur de här filtren fungerar och anpassar sig därefter. En slumpfaktor försvårar dock det här arbetet avsevärt och gör att det aldrig kan bli direkt vetenskapligt. Ni kan ju själva tänka er hur svårt det hade varit för Isaac Newton att undersöka tyngdkraften, om vissa äpplen helt slumpmässigt föll uppåt istället för neråt.
Google vill inte att vi ska lista ut hur deras algoritmer fungerar exakt. De kan aldrig förhindra att vi lär oss det mesta om hur sökmotorn rankar webbsidor, men genom att införa en pytteliten slumpfaktor, så blir det omöjligt att dra exakta slutsatser om någonting överhuvudtaget.
Genom att vara mindre exakt, så kan sökmotorn paradoxalt nog leverera bättre sökresultat till användaren, eftersom man försvårar för SEOáre att manipulera resultaten. Om man som SEOáre råkar ut för att ens sida faller med 50 platser över en dag, så lägger man helt om taktiken och utgår ifrån att man gjort något fel. När vi två månader senare återfår vår gamla position, så tror vi felaktigt att vi gjort något rätt.
Google är bäst på att ranka webbsidor. Att sökmotorn dessutom är svårast att manipulera är bara ytterligare en fördel som Google har. Jag tror att det bästa skyddet mot systematisk spam är att inte göra allting för exakt och förutsägbart. Det krävs bara en pytteliten avvikelse från det normala, så måste alla SEOáre förkasta sina gamla (och kanske riktiga) teorier.