Hoppande resultat i början av sökmotoroptimeringen
Publicerad 5 april 2011, senast uppdaterad 2023-05-19
Jag får ofta frågor från nervösa läsare som märkt att deras sida ibland visas på förstasidan i sökresultatet för att sen visas långt bak och studsa tillbaka fram och åter. Ofta är det inget att oroa sig för, det finns tre olika typer av fluktuerande resultat och om man känner igen dem kan man leva lite lugnare.
Det första exemplet jag tänkte ta upp är något som kallas Grace Period. Det finns en tendens att en sida visas högre än den faktiskt förtjänar under en period i början av sitens existens. Det är inte att sammanblanda med QDF (Query Deserves Freshness) som kan skjuta upp artiklar högre under en period. Det finns många teorier om varför det fungerar så här men det vi vet är i alla fall att en site när den är ny ofta kan ta mycket bättre positioner än den egentligen skulle ha med tanke på de inlänkar den har. Efter ett tag ramlar den då ofta tillbaka i resultaten.
Det andra som kan vara orsaken är att det ofta är svårt för Google att värdera en ny site, det finns dessutom lite inbyggda motstånd för nya siter som gör att det kan bli extra svängigt. Om du har en site som är bara några månader gammal kan du förvänta dig stora fluktuationer om du samtidigt bygger länkar. Det är nästan som att Google hittar en länk, tänker att det här verkar ju vara en bra site och pushar upp den för att sen komma ihåg att det är en alldeles ny och slänga tillbaka den neråt.
Det sista exemplet på när det kan svänga till i sökresultaten är när du aggressivt bygger länkar. Om du får mycket länkar under en period så kan det svänga ordentligt. På samma sätt som med en ny site så verkar det som att Google har lite svårt att bestämma sig. Jag är inte helt säker på varför men jag tror att en av anledningarna kan vara att du får se olika datacenter när du söker – de är inte alltid helt samstämmiga.
5 kommentarer på "Hoppande resultat i början av sökmotoroptimeringen"
Kommentarsfältet är stängt.
Tack Magnus, att du gör en så bra sammanställning av detta!
När det gäller det sista tror jag samma sak som du. Vad jag har förstått så kan efterföljande sökningar hämtas från olika datacenter när belastningen är hög, och ofta är indexet för vissa termer senare uppdaterat på ett datacenter än på det andra.
Mycket intressant post, jag känner att jag hade nog blandat ihop det här med Grace Period, och QDF.
Vänligen,
Fredrik Näs
Jo, men ibland har man anledning att vara riktigt nervös. Vi startade vår sökoptimering i augusti förra året. Sedan låg vi ganska bra till under hösten, för att sedan den 25:e november hamna i någon av googles elakare filter. Vår startsida ligger fortfarande i filter och rankar endast på vårat varumärke, INGENTING annat. Domänens startsida verkar inte ens finnas indexerad, för om man söker på en specifik text som bara finns på vår startsida så hittar inte google något.
Vad detta beror på är väldigt svårt att veta, men det verkar i vilket fall vara väldigt svårt att ta sig ur. Troligen har vi haft många sidor duplicerade pga en bug i c#-kodningen. Dessutom en rad andra saker som urlernas utseende, antalet interna länkar m.m. Detta är nu åtgärdat men det verkar som sagt väldigt trögt att ta sig ur ett elakt filter. 🙁
Vi har fått erfara den hårda vägen att aggressivt länkbygge kan straffa sig. Vill därför uppmana alla som vill driva en seriös och långsiktig verksamhet att vara försiktiga. Det går snabbt att komma upp sig i googles sökresultat, och lika snabbt att åka ner! Ett par nya (och relevanta) per månad har varit en bra strategi för oss.
Brukar få jämna kurvor när jag lägger till länkar försiktigt lite då och då. Att planera ett länkschema tycker jag själv en bra idé, och att man lägger till inlänkar i ett tempo som man sedan orkar av att fortsätta i. Som nybörjare känns det bra att vara försiktig, då vet man också vart gränsen går när man börjar mata in för mycket länkar. Tack för era bra artiklar som hjälper en i seo träsket 😉