Vad finns det för risker med SEO?
Publicerad 15 december 2009, senast uppdaterad 2023-05-19
All SEO innebär en viss risk men om man ska hårddra på det viset innebär att inte göra SEO också risker. Googles algoritm har en lång rad filterfunktioner som kan skicka en sida neråt i sökresultatet av många olika anledningar och du riskerar att hamna i filter när du arbetar med, eller inte arbetar med SEO. Det bästa du kan göra är att lära dig hantera de filter som är vanligast och på det viset använda dom till din fördel.
Ett filter som du förstår innebär ju att du har ett försprång mot konkurrenterna som inte gör det och de allra flesta har inte full koll på de vanliga filter som finns. Oavsett om du jobbar strikt enligt Googles riktlinjer eller om du arbetar med andra metoder så finns det risker och om du tror att om du sökmotoroptimerar enligt riktlinjerna är du säker så famlar du i blindo, filtren är inte straff för att man gjort något fel utan ett sätt att balansera sökresultaten.
De allra vanligaste felen jag upplever att nybörjare inom sökmotoroptimering gör är att arbeta för fort med länkar och att använda för ensidiga ankartexter. Du måste ha tålamod för att få riktigt bra resultat och du får absolut inte ha för ensidiga länktexter. Om det skulle vara så att du råkat gå för hårt fram så är du inte i problem för alltid, i princip alla filter Google har är något som går att ta sig ur. Oftast fungerar det så att om man bara rättar till det som gått snett så är Google så pass förlåtande att man är välkommen in i värmen igen.
En sida som du försöker optimera för sökordet Risktagande och som är alldeles ny ska absolut inte få hundra länkar första dagarna, snarare handlar det om två. De ska dessutom inte ha Risktagande som ankartext, ett riktvärde för sökordet i ankartexten är 25%. Övriga länkar behöver innehålla något annat, den här bloggen har ankartexten Magnus som i särklass vanligast till exempel.
Det kan vara svårt att faktiskt veta om man har råkat ut för ett filter, det behöver inte betyda att man inte dyker upp alls i sökresultaten utan det kan hända att den aktuella sidan blir knuffad bakåt i resultatet. Många tror att de fastnat i ett filter utan att faktiskt ha gjort det, att man inte tar position på ett visst sökord behöver inte betyda att det är fråga om filter, det kan helt enkelt ha att göra med konkurrens eller att det helt enkelt behövs lite tid.
Några tydliga tecken på att sidan fastnat i filter
- Det spelar nästan ingen roll vad du gör, sidan ligger fast på sin position.
- Du har en permanent position 11, 21 eller 31
- Din sida ligger allra längst bak i sökresultatet
- Din sida syns inte alls på en site-sökning (site:mindomän.se)
- Du har tappat ett större antal positioner
- Din PageRank sänktes mer än ett steg vid ett annat tillfälle än då den vanliga exporten sker.
Om man arbetar med riktigt smutsiga metoder så ökar riskerna rejält, vi pratar om t ex dolda länkar på sidan, om man arbetar med dörrsidor eller om man visa olika innehåll för Google jämfört med vad man visar för vanliga besökare. I sådana här fall kan man mycket väl bli utslängd helt och hållet ur indexet och då krävs det att man åtgärdar och ber om en reinclusion i verktyg för webbansvariga.
14 kommentarer på "Vad finns det för risker med SEO?"
Kommentarsfältet är stängt.
Bra Magnus!
De som följer din blogg får verkligen ut något av det! Man bör även ha en SEO strategi så att sånt här inte uppstår, men det är bara vad jag tycker.
//Philip
Tack ska du ha.
Ja helt klart ska man satsa på att arbeta på ett sätt så att man inte fastnar i filter men det går inte alltid att göra något åt. Ett bra exempel på det är när jag startade Tankafritt.nu, över en helg fick den flera tusen länkar från överallt i världen. Den gick direkt in i ett filter och det tog ganska länge innan det gick att ta några positioner.
Utan någon som helst påverkan från min sida och utan några som helst mindre renhåriga metoder blev den alltså filtrerad. Jag kunde ju inte gärna tacka nej till en intervju i Financial Times och jag kunde ju inte gärna stoppa den på Digg, särskilt inte när det gav så mycket trafik som det faktiskt gav.
Nej, precis! Det kan jag tror att webbplatsen fick, en riktigt bra affärsidé! Tråkigt bara med nya lagar, annars kanske du hade haft den öppen fortfarande så att nya personer skulle kunna bli medlemmar?
Hur som helst om vi återgår till länkarna, så säger jag precis som du att det är inget man tackar nej till. Men nu har det väl fixat sig så att du ar några bra positioner även om du inte har sajten igån?
Filter är annars bra, det håller till viss del borta dem som försöker manipulera sökmotorerna.
Min sida ExchangeStudentWorld.com är ny och jag har den senaste tiden fått ca. 30 länkar från olika bloggar.
Nästan alla länkar med ankartext Exchange Student World. Kommer det innebära ett problem?
Nej, jag stängde ner den för att jag helt enkelt inte har tid och ork längre. Ville kunna fokusera än mer på sökmotoroptimeringen.
Jag är också av åsikten att filter är bra, rätt typer hade kanske till och med kunnat rädda de sökmotorer som blev lämnade till förmån för Google.
Nej det tror jag inte ska vara något som helst problem, dels för att Google är lite snällare med ankartexter som är precis som domänen (är ju inte helt orimligt att t ex Google.se får väldigt mycket länkar som säger just Google). Sen tyckte jag inte att det var så stor volym heller, den är inte dagar gammal.
Jag gjorde en del tester angående detta för ett par år sedan. Med hjälp av systemet receivelinks så placerades hundratals länkar med samma ankartext och under kort tid. Detta till två domäner, en gammal med ranking och en ny. Resultat: Den nya åkte i ett filter. Just då såg det ut som en 200-300 unika länkar domäner räckte. Den gamla domänen fick dock bara bättre ranking. Även äldre undersökningar Jim W gjort liknar detta resultat. Undersökningen var med facit i hand något kort för den äldre domänen, bara 2-3 månader. Kanske hade den fått problem längre fram.
Håller du med om detta eller har du andra undersökningar/exempel som tyder på att även äldre domäner inte bör använda ensidiga ankartexter?
Håller med om att det är säkrare med äldre domäner, har däremot en del exempel på gamla domäner med styrka och historia som åkt på smäller när procenten och antalet blivit för stort. Tyvärr kan jag inte säga det med 100% säkerhet eftersom det varit aktiva siter med en lång rad andra möjliga orsaker, däremot har jag ett någorlunda statistiskt samband.
Hupps det känns ju nästan som på julafton fast tvärt om det där med en resultatmässig sammanklappning av rang.
Har funderat lite över hur google egentligen ser en ”nyhet” där sker ju i princip alltid en ganska explosiv ökning av sökresultaten för händelsen i sig. Vissa nyheter rankar högt i den vanliga googlingen andra rankar bara i ”nyheter” tar man tex allt snack om CO2 och analyserar vad som hamnar i vilket fack kanske man kan lära sig något av Googles Al-Gore-it-mer?
Det finns konflikter hos Google när det gäller nyheter, dels finns den inneboende viljan att inte låta saker störta uppåt i sökresultatet när de är helt nya, dels finns viljan att ha ett färskt sökresultat. En helt ny site ska inte kunna ta toppositioner på några dagar och en stor del av de filter som finns stoppar just nya siter. En del väljer att prata om ”Sandbox” som ett filter, eller serie av filter för nya siter. .
Att å andra sidan hålla sökresultatet färskt är också viktigt för Google, det brukar sägas att sökresultatet förtjänar färskhet (freshness). Man vill förstås visa upp det som är aktuellt på ämnet och om det precis hänt något som gör att folk söker på ett visst sökord så vill man visa det.
Sammantaget blir det ungefär så här, helt nya siter har det riktigt svårt att ta sig någonstans i början oavsett hur bra dom är, hur mycket organiska länkar dom får osv. Gamla betrodda siter där man lägger till nya sidor har en förmåga att ta riktigt bra positioner med dessa under några dagar eller en vecka, just för att det är färskt.
Ok och om vi renodlar de resultaten och tittar på varför vissa nyheter snabbt blir ettor även vid vanlig googling, vad skulle du vilja säga utmärker dessa?
Nyheterna spatserar ju i så fall rätt igenom sandlådestadiet upp på förstaplats. Vad jag lite grand vill åt är om accelerationen i värdestegringen på inlägg kan anses vara direkt avhänglig på trust rank. Varje trustrank har sitt tak och när det är uppnått kommer sandlådan. Alltså hög trust = hög tillåten acceleration dvs från noll till etta på en dag.
Eller vad vet vi egentligen om sandlådan? Är det bara en hink som alla får spader på. Eller kan även fullvuxna väldigt högrankade hamna i sandlådan? (försöker förstå sandlådan lite mera)
Ja du har nog rätt när det gäller att man helt enkelt får större svängrum när det gäller Trust och jag gillar din definition. Däremot är det då inte sandlådan man pratar om eftersom den per definition är begränsad till sprillans nya siter och de har ju ingen trust (vi ska också komma ihåg att sandlådans existens är något som diskuteras).
En färsk nyhet får alltid bättre position än den egentligen förtjänar (länk och innehållsmässigt) under en period och helt klart är det så att siter med väldigt mycket trust kommer få väldigt bra positioner på sina nya artiklar. Om vi tänker på DN.se eller någon annan motsvarande site så är det ju dessutom så att nya artiklar får enormt med starka länkar, t ex från tidningens startsida. Den ska ju rimligtvis för egen maskin hamna ganska högt.
Vi ska heller inte glömma relevans i länkarna till artikeln, detta är viktigt även internt på siten. Om en artikel har starka inlänkar från sidor på siten som är relevanta kommer det ge en extra skjuts. Om Aftonbladet.se lägger till en ny artikel om relationer ex ”Min man kommer hem sent” så kommer den ta en bättre position än om SvD gör det, just för att de skriver mer om sånt.
Om vi ska reda lite i vad sandlådan är så handlar det om ett filter eller en serie filter som hamnar på siter som är alldeles färska och möjligtvis siter som genomgått en stor omstrukturering. Det blir mer eller mindre omöjligt att ta positioner på somliga eller samtliga sökord under en period men om man fortsätter arbetet som vanligt kommer filtret efter ett tag att släppa. En av de faktorer som är viktiga för sandlådan är länktillväxt och hur ensidiga ankartexter dessa länkar har. Filtret är som sagt diskuterat men det råder ingen som helst tvekan om att det finns klara begränsningar för vad man kan göra med nya siter jämfört med hur man kan hantera en som har lite tid på nacken.
Ok tack för ditt utförliga svar!
Och tack för rättningen om sandlådan, i en relativt färsk bransch verkar det finnas en hel del olika sätt att använda begreppen, en del mer korrekta än andra. Lika bra att lära sig rätt med en gång.
Försöker se Google som lite av en relationsindexerare mellan människor med styrkor och svagheter, vilket delvis fungerar men det är uppenbart så mycket man har kvar att lära.
Ja utan tvekan används begreppen olika och många gånger är det ju dessutom helt fritt att hitta på. En rolig liten sak är de många olika orden för sökmotoroptimering som flukturerar. Det finns nämligen anledning att hitta på ett eget ord för då kan man ju säga åt sina potentiella kunder att eftersom man ligger etta på det så är man ju rimligtvis bäst. Intressant att googla runt lite och titta på olika varianter (sökmotoroptimering är det som används mest dock, SEO växer sakta till sig).