Spammen is helemaal zo gek nog niet!

Spammen is helemaal zo gek nog niet!

Delen op twitter Delen op facebook
Waar geld verdiend wordt, zijn ook boefjes te vinden die de grens opzoeken of overschrijden. Binnen zoekmachines is dat niet anders en dus is er al jaren een kat-en-muisspel aan de gang tussen spammers die steeds nieuwe trucjes bedenken en zoekmachines die deze trucjes steeds weer proberen tegen te gaan. Zelf ben ik altijd van mening geweest dat eerlijkheid het langst duurt en predik ik al jaren white-hat SEO. Maar na zo’n 10 jaar SEO kom ik tot een andere conclusie: spammen loont.

Googles war on spam

Voor Google is het belangrijk dat de zoekresultaten relevant zijn. Spam zorgt ervoor dat websites vindbaar zijn op zoekwoorden of posities die ze niet verdienen. Voor (be)zoekers is dat irritant, want die willen snel het juiste resultaat vinden. Voor Google is het dus van levensbelang dat de zoekresultaten niet al te veel spam en rommel bevatten. Matt Cutts en zijn team behoren daarom al jaren tot de meest zichtbare mensen in de SEO-wereld die proberen zo veel mogelijk spam uit te roeien. Er zijn vele soorten spam, die ik hier niet allemaal ga benoemen, maar op hoofdlijnen kun je het heel ongenuanceerd indelen in twee soorten: on-page-spam en off-page-spam.

On-page-spam

On-page-spam is een verzamelnaam voor allerlei trucs die je op je eigen website uithaalt om beter te scoren. In 2003/2004 hadden we cloaking. Bij cloaking herkent de webserver een zoekmachine op basis van IP-adres en/of user agent en laat deze een andere versie van een website zien dan de ´gewone´ bezoekers. Google roeide deze soort spam vrij effectief uit. Cloaking komen we daarom in feite niet meer tegen. In Nederland gingen de meeste serieuze zoekmachinemarketingbureaus in die periode ´white hat´ werken, al ging dat niet altijd zonder slag of stoot. In 2004/2005 zagen we veel JavaScript cloaking. Zoekmachines lazen toen nog geen Javascript, dus je kon een onzinpagina vol keywords maken en laten indexeren, maar bovenin een script zetten dat ‘gewone’ bezoekers doorstuurde naar de échte site. Ook deze vorm van spam is vrij effectief weggewerkt door Google. In Nederland kregen een paar bureaus met bijna al hun klanten in een keer een Google penalty. In de jaren daarna volgden allerlei soorten spam. Hidden content (het op basis van bijvoorbeeld CSS verstoppen van tekst), keyword stuffing (teksten veel te vol proppen met zoekwoorden), scraping (content via een feed, of rechtstreeks, van andere sites jatten, wat herkauwen en online zetten). Ook deze vormen van spam worden door Google vrij effectief gedetecteerd en gefilterd, al is dat niet waterdicht.

Off-page-spam

Off-page-spam is een verzamelnaam voor allerlei trucs die je buiten je eigen website uithaalt om beter te scoren. Meestal gaat dat dus om het verkrijgen van grote hoeveelheden links van zo relevant mogelijke pagina’s met zo relevant mogelijke linkteksten. Maar ook trucs om veel likes, shares, +jes en tweets te krijgen vallen hieronder. In de periode 2003 – 2005 kwamen we nog vrij veel linkfarms tegen. Een linkfarm is een netwerk van sites die naar elkaar linken met als primaire doel het doorgeven van linkwaarde. Soms werden die sites puur met dat doel opgezet, soms ging het om netwerken van sites die gewoon met elkaar afspraken (soms via een makelaar) om onderling te linken. Ook kwam het veel voor in combinatie met cloaking (want als je de content toch verstopt voor gebruikers, kun je er net zo goed wat linkjes naar compleet irrelevante bedrijven in verstoppen). Google heeft allerlei algoritmes gemaakt die dit soort netwerken redelijk weten op te sporen. Als er 30 sites zijn die alle 30 naar alle 30 linken, valt dat op een gegeven moment wel op natuurlijk. En wederkerige linkruil kan op een vergelijkbare manier worden gefilterd en gedevalueerd. In dezelfde periode kwamen ook de blogs op (het begin van web 2.0) en dat bood nieuwe mogelijkheden voor spammers. Massaal werden, handmatig of via een bot, reacties geplaatst onder blogs met daarin linkjes met precies het juiste keyword naar de juiste pagina: commentspam of forumspam. Als reactie voerden de zoekmachines begin 2005 overhaast de no-followtag in (ik blijf erbij dat het voorstel van Yahoo in 2005 beter was). Door deze tag aan links in de comments te koppelen, geef je als webmaster aan dat zoekmachines die links niet kunnen vertrouwen. Hierdoor viel het effect van commentspam grotendeels weg. Linkspam kreeg daarna een wat handmatiger karakter. Om de detectieradar van Google te ontwijken, ging het minder om kwantiteit en uniformiteit en meer om kwaliteit en diversiteit van de links. Vaak worden ze gekocht in de vorm van een advertorial die niet als zodanig te herkennen is. En die vormen van spam zijn veel lastiger te detecteren door Google. Want hoe zie je aan een artikel op een blog met daarin een mooie, relevante, keywordrijke link of dat artikel betaald is of niet? Daarnaast is er nog het probleem dat ze linkspam meestal niet kunnen bestraffen met een flinke penalty, omdat je daarmee ook de concurrent eruit zou kunnen spammen (koop in een derdewereldland een paar honderd linkjes naar je concurrent en zijn site vliegt eruit).

Google geeft inzicht in soorten spam

Al met al kunnen we concluderen dat Google een groot deel van de on-page-spam vrij effectief tegengaat. Meestal doen ze dat door de pagina’s in kwestie te devalueren of uit te filteren. In extreme gevallen kan een website ook een zwaardere penalty krijgen. Off-page-spam is nog steeds lastig. De Penguinupdates van 2012 helpen wel wat om de extreme gevallen iets te devalueren, maar in principe kun je nog steeds met gekochte links je positie in Google opkrikken, mits je dat voorzichtig doet. Een paar dagen geleden lanceerde Google een pagina waarop ze wat meer laten zien overhoe ze spam tegengaan. Zo laten ze bijvoorbeeld 50 screenshots zien van pagina’s die de afgelopen uren een penalty hebben gekregen door een handmatige ingreep vanuit Google. Ook is in een grafiek te zien welke soorten spam ze tegenhouden. Welke soorten spam worden aangepakt? In de grafiek valt een aantal zaken op. Zo is duidelijk een piek te zien in februari-maart 2011 in de categorie “Inhoud van lage kwaliteit met weinig tot geen toegevoegde waarde” (roze lijn). Eerst dacht ik de Panda-update te herkennen, maar toen bedacht ik dat deze grafiek alleen handmatige acties van Google bevat. Panda is een algoritmeaanpassing, en is hier dus niet in opgenomen. Toch is het opvallend dat Google er blijkbaar voor koos om tegelijk met de Panda-update óók handmatig extra te filteren in websites met lage-kwaliteit-content. Misschien wilden ze een goede indruk maken. Ook is te zien dat de hoeveelheid gevonden spam toeneemt in de tijd en er dus steeds meer handmatig door Google gefilterd wordt. Maar het internet groeit ook heel hard, dus is het logisch dat Google meer spam moet tegenhouden. Als we deze grafiek indexeren op de groei van het internet, zal deze waarschijnlijk zelfs afnemen.

Onnatuurlijke links naar uw site

Wat het meest opvalt aan de grafiek, is dat het overgrote deel (zo’n 250.000 per maand) van de handmatig gefilterde spam valt in de categorie “pure spam”. Google definieert dat als volgt: “automatically generated gibberish, cloaking and scraping content from other websites”. Allemaal on-page-spam dus.

De categorie “onnatuurlijke links naar uw site” ligt een stuk lager: zo’n 20.000 per maand. Een schijntje ten opzichte van het totaal. Hierbij moet gezegd worden dat de data die Google hier geeft ongeveer een jaar achterlopen. Het kan dus zijn dat ze inmiddels meer off-page-spam filteren. Desalniettemin kan ik op basis van deze data alleen maar concluderen dat Google nauwelijks optreedt tegen linkspam. De data die Google zelf geeft, onderschrijft dus de stelling dat off-page-spam in veel gevallen niet zal worden gepakt.

A-merken en spam

Google zal het ontkennen, maar alle SEO’ers weten dat het zo is: grote merken krijgen bij Google een andere behandeling dan kleine merken. Zeker als het om spam gaat. Hier een aantal voorbeelden van A-merken en hun spam:

BMW.de

Op 4 februari 2006 ging BMW in Duitsland op het strafbankje: het hele domein werd uit Google gezet. Matt Cutts maakte er een flink punt van en schreef er een blog over met screenshots. Het was een klassiek voorbeeld van JavaScript-cloaking, waarbij de zoekmachines automatisch gegenereerde content vol keywords te zien kregen en bezoekers de ‘gewone’ site. Deze spam heeft ongeveer een jaar online gestaan, de penalty duurde 5 dagen.

Marktplaats.nl

Marktplaats heeft zeker 2 jaar vrij heftige spam toegepast (2006/2007). Ze hadden een combinatie van hidden content (no-frames) en automatisch gegenereerde rommel (ze logden interne zoekopdrachten en genereerden daar eindeloos pagina’s over). Heftige spam dus, waarmee ze jarenlang veel meer verkeer kregen uit Google op talloze longtail-termen dan ze verdienden. Uiteindelijk volgde de penalty: de site ging 3 dagen uit Google. Daarna waren ze weer terug.

Interflora.co.uk

Een aantal weken geleden ging het mis bij Interflora in de UK. In de aanloop naar Valentijnkochten ze in korte tijd meer dan 150 advertorials op allerlei regionale nieuwssites. Die advertorials waren bedoeld om meer linkwaarde op de relevante keywords (valentines,flowers, e.d.) te krijgen. Daarmee ‘kocht’ Interfora dus een goede positie in Google en daarmee verdienden ze rond Valentijn veel geld. De penalty volgde pas na Valentijn en duurde 11 dagen. Daarna was Interflora weer terug in Google.

Wie kan rekenen: spammen loont

Ik zal niet proberen uit te rekenen hoeveel deze merken nou precies hebben verdiend met hun spam en hoeveel de penalty gekost heeft. Maar volgens mij is het duidelijk dat al deze drie merken onder de streep een flink groot positief bedrag zien staan. Een bedrag dat ze effectief ‘gejat’ hebben van hun kleinere concurrenten die wel gewoon SEO volgens het boekje doen. Een mogelijke verklaring hiervoor is dat ‘gewone mensen’ niets van SEO snappen en gewoon Marktplaats willen vinden als ze zoeken naar Marktplaats. Levert Google geen Marktplaats als eerste resultaat dan ligt dat, in de perceptie van veel zoekers, aan Google. Ze denken niet “Marktplaats heeft z’n zaakjes niet op orde” maar “Google is stuk”, met een negatieve beleving bij Google als gevolg. De ironie is dus dat Google een slechtere zoekmachine lijkt als ze beter worden in het afstraffen van spam.

Wat zal ik mijn klanten adviseren?

En dat brengt me bij een dilemma. Wat moet ik mijn klanten nou adviseren? Mijn hart zegt dat ze alleen op een nette manier SEO moeten doen. Maar als ik het sommetje maak, kan ik niet anders concluderen dan dat spam voor A-merken loont. Zal ik dan toch maar een zwarte hoed kopen? Bron: Remi van Beekum, Storm Marketing Consultants
Brand Management

Dit is Brand Management


Een weblog over actuele, nuttige, leerzame en leuke wetenswaardigheden over merken- en marketingzaken! Samen met onze enthousiaste bloggers brengen wij "harde" informatie over marketingmodellen en zachte onderwerpen als ‘weetjes’, opinies, columns en merkfeiten.


Premium Wordpress Themes Free Wordpress Themes