Bakgrund (fakta):
För ett par år sedan började straffet 30+ visa sig hos sökmotorn Google. Straffet ser ut som så att en domän åker bakåt i träfflistorna med alla sina placeringar till efter placering 30 (få undantag kan finnas), ibland så långt som 1000+.
Vad för sajter drabbas? Mönster? (Nästan säker fakta)
Adsense tunga sidor är vanliga offer, sidor med lite information. Länkkataloger brukar klara sig mindre bra, forum bättre. För lite information är dock inget generellt problem, ytterst sparsam content och hårt optimerade sidor kan fortfarande klara sig galant.
Filtret är väldigt precist, till synes dåliga sidor åker och bra stannar kvar. Här verkar det inte spela någon roll hur hårt sidan är optimerad med inlänkar / onpage, en bra sida klarar sig alltid i längden. Det är med andra ord själva innehållet som styr. Jag kan nog även slå fast att straffet är mer i spel på sökord med trafik.
Teorier
Jag har sedan sommarn 2007 studerat filtret och fått en del domäner i filtret. Några har klarat sig ur, andra inte. Här kommer några teorier om vad man kan göra för att komma ur filtret, även vad jag tror inte påverkar
Inlänkar?
Vid första anblicken kan man tro att det är länkarna som är problemet. I denna tråd utredes detta, men visades enligt mig vara fel.
Det är främst av tre anledningar som jag tror detta är fel:
1. Det externt, konkurrenter skulle kunna på ett enkelt sätt sänka varandra. En sådan algoritm vore helt galet att implementera.
2. Jag har själv testat att länka enormt mycket till bra sajter, med samma ankartext, effekten är bara positiv.
3. Man kan rensa i princip alla länkar från en straffad sajt, det hjälper inte.
Bästa gissningen just nu, avvisningsfrekvens
Först och främst är jag säker på att det finns olika orsaker till detta straff. Allt från keyword spamming till duplicate content (Yes, delar av sajten kan då försvinna ner). Men om vi koncentrerar oss på helt normala sajter så är min främsta teori avvisningsfrekvens och tid på sajten. Google kan mäta detta genom att registrera klick (vilket de gör genom JavaScript) i sökresultatet. Registreras t.ex först ett klick på din hemsida och lite senare på en annan under dig så får du en avvisning plus att även tiden på din webbplats kan räknas ut (iaf ett snitt över tid). Detta kan skilja sig starkt mellan olika sökord, allt från 30% till över 50% och tider mellan 1-4 min. Man kan därav inte jämföra olika sökord med varann. Men allt över 50% skulle jag vilja säga är dåligt.
Det är möjligt att det inte är detta som Google kollar på, men jag har märkt att om man håller koll på siffrorna och bygger en bra sajt så kan man vara säker. Så, jobba onpage skapa en bra sida med innehåll som besökaren vill ha, det är mina grundtips!