En intressant aspekt av att följa upp användarbeteenden är ju hur klicken fördelar sig på olika träffar i SERPen.
Känns som om det vore relativt enkelt för Google att jämföra klickfördelningen mot någon normalfördelning för att se om en viss sida förtjänar högre respektive lägre ranking.
Jag har inga bevis, och har heller inte gjort några närmare undersökningar, men det känns som om den typen av analys vore ett klockrent verktyg för att spåra upp spammiga sidor som genererar färre klick per sökning i jämförelse med normalfördelningen. Och tvärs om för att se vilka sidor i SERPen som attraherar fler klick per sökning i jämförelse med normalfördelningen och således borde förtjäna en bättre ranking.
Någonstans har jag även under en tid misstänkt att detta kan vara en del i sandlådefiltret. Teorierna kring sandlådan är många, och de flesta går ut på att tillväxttakten i antal länkar är väldigt central. Trots detta ser vi ju sidor som kan få mängder av länkar under kort tid utan att fastna. Det vanligaste svaret på den frågan är att äldre domäner med en bra "trust" inte drabbas på samma sätt som nya, och visst verkar det ligga det en del i det.
Lägg till detta Jims observeringar om "freshboost", eller smekmånaden som jag själv kallar det, att nya sidor under en kort tid i början kan uppnå topplaceringar på högt trafikerade ord, för att sedan droppa rejält, som om de hamnat i sandlådan.
En teori som passar detta mönster bättre är att Google detekterar ifall en webbsida helt plötsligt attraherar många klick på högt trafikerade sökfraser som de över huvud taget inte fått trafik från tidigare. Det normala vore att en sida som har en naturlig länktillväxt får en utvecklingskurva som gör att den sakta men säkert klättrar i SERPen och sakta men säkert attraherar mer och mer trafik, medan en allt för snabb länktillväxt gör att sidan "peakar" fort, och går från noll i trafik på den aktuella sökfrasen till att ta en rejäl del av söktrafiken. Detta måste då även jämföras med om den aktuella sökfrasens sökvolym har ökat markant under perioden.
Om detta i sin tur "triggar" en flagga som gör att sidan hamnar i filtret på den aktuella sökfrasen så skulle även det kunna förklara varför filtret endast gör att man tappar ranking på de högt trafikerade fraserna.
I så fall skulle sandlåde filtret appliceras per sökfras, istället för per site.
Har velat skriva av mig om detta ett tag men inte kommit mig för. Detta är alltså endast spekulationer som jag inte har letat bevis för ännu.
Det som vore intressant att höra är om någon mer har tänkt i samma banor.
Vet att det blev lite off-topic, så om admin vill flytta till ny tråd är det bara att göra det.