Nytt realtidssök känsligt för spam
Publicerad 8 december 2009, senast uppdaterad 2024-04-22
Google håller på och lanserar realtidssökresultat, vi kommer inom en snar framtid kunna hitta de aktuella tweets och liknande i sökresultaten. Resultaten för dessa kommer skjutas in i de vanliga resultaten ungefär som med Google News eller videoklipp och det gör att de kommer ta bättre position än de skulle gjort om de bedömdes som en vanlig sida.
Det råder ingen tvekan om att det här är en ganska stor förändring av sökresultaten trots att det som skjuts in i dom kanske inte är så stort. Redan nu finns det undersökningar som visar att en tweet som är negativ om ditt företag kan kosta dig 30 kunder. Vad som händer om de skjuts in i sökresultaten borde vara enkelt att förutspå.
Om man ser det här i ett lite annat ljus, det som kommer genom glasögonen på Black Hatten eller spammare så blir det direkt läskigt. Vi ska komma ihåg att en av anledningarna till Googles algoritm ser ut som den gör idag, med mätandet av inlänkar och en sites trust osv, är för att göra det komplicerat för spammare. Man vill inte att det ska gå att hitta en massa värdelösa sidor i sökresultatet. En av anledningarna till att det fungerar så bra som det faktiskt gör är att det är en lång och komplicerad process att jaga upp en site i ett sökresultat, det är inga snabba stålar att jobba med SEO. Om man jämför med hur lång och komplicerad process det är att starta ett Twitter-konto och twittra så är det en enorm skillnad.
Visst kommer Google säkert filtrera och sortera de tweets som ska visas men det blir en hela massa bra spärrar som man måste ta bort. Detta är spärrar som fungerat väldigt bra på de vanliga sökresultaten men som helt enkelt inte kan appliceras på Twitter. Till exempel kan man titta på domänens trust (Google tillskriver varje site ett visst mått av förtroende), det måste sättas helt ur spel. Hur unikt innehåll är måste också mer eller mindre sättas ur spel, hur unik kan egentligen en snutt på 140 tecken vara när den handlar om samma ämne som dom andra? Fundera på det, stora delar av Googles algoritm är något som för tweets är helt värdelöst, PageRank, On Page faktorer, osv.
Nu finns det förstås en hel del annat man kan mäta men de är alla väldigt känsliga faktorer, det går lätt och snabbt att fuska. Man kan till exempel mäta hur många som följer personen som skrivit meddelandet men det ligger väldigt många icke-seriösa twittrare i de övre skikten när det gäller followers, det är nämligen väldigt svårt att komma upp i sådana mängder om man använder tjänsten på riktigt. Det går förstås dessutom relativt enkelt att sätta upp en bot som registrerar konton och följer dig. En annan faktor skulle kunna vara att mäta antalet retweets men det kan man ju spamma sig till på samma sätt. Eftersom det dessutom inte har de vanliga kraven så finns det inga bra sätt att mäta vad som faktiskt är spam och vad som är riktigt content. T ex krävs ju unika texter i det vanliga sökresultatet men en retweet är ju per definition bara en kopia.
Lite gissningar
Jag har inga ordentliga uppgifter men jag tror att det är de här tre faktorerna man kommer väga in i valet att visa eller inte visa en tweet, antal followers, antal retweets och färskhet. Det blir förstås en kombination så hur många followers dina followers har kommer spela in. På samma sätt kommer en värdering göras på hur ofta dina tweets retweetas och hur ofta det sker för dina followers. Det är fortfarande inte det minsta komplicerat att göra detta helt automatiskt och om det kan innebära riktigt bra positioner på extremt stora sökord kommer det göras in absurdum. Twitter är redan idag spammigt och det kommer öka radikalt.
5 kommentarer på "Nytt realtidssök känsligt för spam"
Kommentarsfältet är stängt.
Oj, ingen dålig filosofi! Ja det återstår ju att se vad som händer nu när det kommer mer och mer.
Det finns onekligen utmaningar för Google i att hålla realtidssök spamfritt, men jag tror att de löser det på ett bra sätt, återstår bara att se exakt hur..
Jo dom brukar vara duktiga men det här tror jag kan vara för svårt även för Google.
Fasen vad Google uppdatera sin algoritm numera, har deras hastighet på uppdateringar ökat?
Petter
Jo, det tycker jag. Det är ju iofs inte säkert att det är ökade ansträngningar som ligger bakom, det kan ju ha hänt att det bara råkat bli färdigt på en massa fronter på en gång.