Essay over de noodzaak tot verwetenschappelijking van SEO
Er is een toenemende noodzaak het vakgebied van de Search Engine Optimization (SEO) te verwetenschappelijken. Zowel de aanbieders als de afnemers van content zijn steeds afhankelijker geworden van de keuzes die zoekmachinebedrijven maken bij de volgordebepaling van de gratis, organische zoekresultaten. Google neemt, in ieder geval in onze Westerse wereld, het leeuwendeel van de zoekopdrachten voor haar rekening. Zowel aanbieders als afnemers moeten Google kunnen vertrouwen bij deze volgordebepaling. De aanbieders van goede content moeten er op kunnen vertrouwen dat Google er alles aan doet om die zichtbaar te maken voor de doelgroep. De afnemers van de content ( = zoekers = consumenten) moeten er vanuit kunnen gaan dat de hoogste zoekresultaten daadwerkelijk de allerbeste zijn. Maar wat is ‘goede content’? En wat zijn ‘de allerbeste zoekresultaten’? Hoe bepaalt Google dat? Omdat onze afhankelijkheid, in zowel commerciële als niet-commerciële zin, zo groot is geworden (en ongetwijfeld nog veel groter zál worden), ligt hier een taak voor de wetenschap. Die moet aan één kant bedrijven houvast geven bij de informatievergaring op het gebied van SEO en aan de andere kant grip proberen te houden, of eigenlijk krijgen, op de stormachtige technologische ontwikkeling van zoekmachine-algoritmen. Via dit essay beoog ik een aanzet te geven voor de (discussie over de) verwetenschappelijking van SEO.
Dit artikel is geschreven voor wetenschappers (die interesse hebben het onderwerp op te pakken), SEO specialisten (die meer vaste grond onder de voeten zoeken bij hun werkzaamheden), gefrustreerde bedrijven (die nu wel eens willen weten hoe SEO specialisten hun kennis verzamelen) en gebruikers van Google (die meer willen weten over dat vakje dat ze dagelijks met woorden voeden, en de resultaten die ze vervolgens blind –moeten kunnen- vertrouwen). Reacties worden gewaardeerd!
U zegt dit, en zij zegt dat? Wat is waar?
Het vakgebied van de SEO wordt eigenlijk in zijn geheel overgelaten aan SEO-professionals die zich zelf aanduiden met begrippen als SEO-specialist, SEO-expert. De schrijver van dit essay is er daar één van. Er wordt heel veel gezegd en gesteld door deze SEO professionals. Maar wat is waar? Afgelopen week kreeg ik opnieuw de zeer terechte vraag: “Wie moet ik nou geloven? U of die andere seo specialist? U zegt dit, en zij zegt dat? Wat is waar?”. Om precies dergelijke vragen te kunnen beantwoorden meen ik dat het SEO-vakgebied veel wetenschappelijker gefundeerd zou moeten worden, dan nu het geval is. Het vak wordt niet of nauwelijks op een serieuze manier aan universiteiten en HBO’s gedoceerd. Mijn boek wordt in Leuven gebruikt, en af en toe worden mijn collega’s of ik ergens uitgenodigd voor een gastcollege, maar daar blijft het meestal bij.
Waar baseren SEO professionals hun kennis eigenlijk op?
Laat ik mijn antwoord beginnen met de beschrijving van een praktijksituatie. Een eigenaar van een webshop komt bij me voor SEO-advies en vertelt dat hij gelezen heeft dat het gunstig is voor de organische rankings (de gratis rangschikkingen) in Google als de site in kwestie ook meedraait met de betaalde AdWords-diensten van Google. Mijn antwoord hierop zou kunnen zijn (en is het ook): “Nee hoor, het hebben van AdWords-advertenties heeft geen voordeel voor je organische rankings”. “Ok, bedankt, dat weet ik dan ook weer”, zegt de webshopeigenaar, waarbij hij mijn SEO-kennis dan dus blijkbaar voor absoluut waar neemt. Maar is dat terecht? Veel beter zou het zijn als de webshopeigenaar zou zeggen: “Ok, bedankt, interessant, maar waar baseer je dit antwoord op?”. Bij zo’n wedervraag krijg je een gesprek, en bij zo’n gesprek moet je als SEO professional kunnen teruggrijpen op via wetenschappelijke methodieken verzamelde kennis. Alleen een wetenschappelijke onderbouwing van mijn antwoord op zijn vraag, zou de webshopeigenaar tevreden moeten stellen.
Opdoen van SEO-kennis via publicaties van Google zelf
Vaak wordt gesteld dat er geen wetenschap van het vakgebied mogelijk is, door het simpele feit dat de rankingalgoritmen (een algoritme is een geprogrammeerde formule, in dit geval de formule die de rangschikking van zoekresultaten definieert) van Google geheim zijn. Google beschouwt het rankingalgoritme als bedrijfsgeheim. Desondanks publiceren ze zelf toch ook regelmatig over de factoren die de rankings bepalen. Een voorbeeld hiervan is de publicatie op hun Google Webmaster Central Blog, waar ze eind 2014 stelden dat de mobielvriendelijkheid van websites een rankingcriterium zou kunnen gaan worden:
We see these labels as a first step in helping mobile users to have a better mobile web experience. We are also experimenting with using the mobile-friendly criteria as a ranking signal. Google
Of recent nog, deed Google een boekje open over de wijze waarop de volgorde bij de lokale zoekresultaten (dat zijn de bedrijfsvermeldingen bij de maps) wordt bepaald:
Lokale resultaten worden voornamelijk gebaseerd op relevantie, afstand en prominentie. Deze factoren worden gecombineerd om de beste overeenkomst voor uw zoekopdracht te vinden. De algoritmen van Google kunnen bijvoorbeeld bepalen dat een bedrijf dat verder bij u uit de buurt ligt, waarschijnlijk eerder heeft wat u zoekt dan een bedrijf vlakbij en daardoor een hogere positie krijgt in de zoekresultaten.Google
Via de zogenaamde “Google Webmaster Central office hours hangouts” kunnen we zelfs ook direct vragen stellen aan hun “search specialisten”.
Google blijkt niet vaak bereid ons een kijkje te verschaffen in de dieptes van het algoritme. Hun antwoorden en toelichtingen zijn of heel algemeen of betreffen vragen die op de één of andere manier te maken hebben met hun ‘richtlijnen’. Dan doel ik niet alleen op hun Richtlijnen voor webmasters (die iedere web professional uit het hoofd zou moeten kennen), maar ook op de technische mogelijkheden die Google ons biedt om de informatie op onze websites voor hun te verduidelijken. Zo heeft Google een instructie gedefinieerd die we in de meta-sectie van de pagina kunnen opnemen om de scoringskracht van pagina’s met identieke content te bundelen in één pagina. Dat is de rel=canonical. Maar zo zijn er ook nog een rel=nofollow, rel=next, rel=prev, etc. Van dergelijke zaken weten we behoorlijk precies hoe ze werken, omdat Google die om heldere redenen heeft geïntroduceerd. Van weer andere instructies, die niet door Google zelf zijn geïntroduceerd maar wel veel gebruikt worden, is Google soms ook heel duidelijk over hun interpretatie daarvan. Een voorbeeld hiervan zijn de instructies om de betekenis of semantiek van de informatie op onze pagina’s aan Google te verhelderen. Dat gebeurt op basis van een vocabulair zoals dat vanuit de schema.org gemeenschap is gedefinieerd, en geïmplementeerd kan worden via JSON-LD markup. Soms ook springt Google in de SEO-arena als SEO’s theorieën en technieken verkopen, die helemaal niet correct blijken. Een voorbeeld daarvan is de PageRank-sculpting techniek. Het is alweer zeven jaar geleden dat Google overtuigend heeft toegelicht dat die techniek niet werkt, maar ik zie hem nog aan de lopende band opduiken in websites van klanten.
Een andere tegenwerping van de stelling dat er, door het feit dat het Google algoritme geheim is, geen wetenschap mogelijk zou zijn, is de simpele constatering dat het algoritme van de natuur ook niet bekend is en we de ‘natuurkunde’ toch als een bij uitstek wetenschappelijk discipline kennen. Maar hoe voeren die natuurkundigen (en wiskundigen, biologen, archeologen, filosofen, zelfs –met wat minder succes, blijkt de laatste tijd…- psychologen) hun onderzoeken dan eigenlijk uit? En zijn die methoden dan ook toepasbaar voor SEO? Laten we even terugkeren naar de fundamenten van wetenschappelijke waarheidsvinding.
SEO kennis verzamelen via empirisch onderzoek
Als het onderzoeksobject een black box is (en dat ís het algoritme van Google, vanuit ons perpsectief), dan kunnen we door testen uit te voeren kijken hoe het object zich gedraagt. Als we de appel losknippen van de boom, valt die zonder uitzondering naar beneden. Newton verklaarde dit uit de aanname dat massa’s elkaar aantrekken (de aarde trekt aan de appel en de appel trekt aan de aarde), maar Einstein had een paar eeuwen later de briljante ingeving dat massa de ruimte kromt, en de appel dus om dié reden richting de aarde beweegt. Via allerlei verfijnde experimenten kon aangetoond worden dat Einstein’s theorie beter aansloot bij de werkelijkheid dan die van Newton. Door experimenten uit te voeren, kunnen we dus vaststellen wie er (vooralsnog) gelijk lijkt te hebben.
Binnen het SEO-vakgebied gebeurt het niet anders: ook wij kunnen bijvoorbeeld de Meta Title van onze homepage eens uitbreiden met een interessante zoekterm en kijken wat de effecten zijn op de ranking van de pagina op die zoekterm. U zult begrijpen dat de uitkomst van één zo’n experiment nog niets zegt: misschien is de verbetering van de ranking toeval. Misschien heeft Google op dezelfde dag van het experiment een update gedaan waarbij een heel ander aspect opeens zwaarder wordt gewogen en de pagina om dié reden hoger (of lager) is gaan scoren. Die mogelijkheid mag je nooit uitvlakken, want er zijn vele factoren in het spel. Google zelf stelt dat er 200+ rankingfactoren zijn, die zelf ook weer uit vele deelfactoren bestaan. Dan kom je al snel op duizenden factoren. Bij goede experimenten wordt dus onderzoek gedaan met behulp van grote hoeveelheden tests.
Moz.com, een commercieel onderzoeksbureau hoog aan de westkust van de VS, doet veel van dergelijk –wat we noemen empirisch– onderzoek aan Google’s zoekresultaten. Een leuk voorbeeld van een recent onderzoek door Moz.com is er één waarbij zij wereldwijd mensen hebben gevraagd om –gegeven een bepaalde zoekterm- op een heel specifiek zoekresultaat te gaan klikken. Daaruit bleek dat dat specifieke zoekresultaat opeens ging stijgen in de rankings. Nadat men gestopt was met klikken daalde het zoekresultaat weer. Hieruit concludeerde men dat de doorklikratio (CTR in het Engels) een rankingfactor is. Of iets genuanceerder, in hun woorden:
The more your pages beat the expected organic CTR for a given position, the more likely you are to appear in prominent organic positions. Moz
Maar hoe zeker weten we nu dat CTR inderdaad een rankingfactor is? Het is in ieder geval nog niet door Google bevestigd. Misschien was de toename van het bezoek aan de betreffende site wel de reden (ook al zegt Google dat hoeveelheid bezoek op de site geen rankingcriterium is). U ziet: het is altijd een genuanceerd verhaal. We komen er niet met snelle tips&tricks.
Meten is weten! Hoewel?
Door te meten hoe de black box zich gedraagt, d.w.z. hoe de Output wordt als gevolg van variatie in de Input, kunnen we de samenhang tussen de twee vaststellen, kunnen we dus eigenlijk de formule bepalen. Deze samenhang noemen we de correlatie. Correlatie zegt echter niets over de inhoud van de black box. We weten alleen wát de black box, in termen van Input/Output, doet. Binnen het SEO-onderzoek is het ranking algoritme van Google de black box. We weten dus niet precies welke factoren worden gebruikt, maar zien wel het resultaat ervan, namelijk de zoekresultaten. Door de zoekmachine te voeden met vele zoektermen en per zoekresultaat te kijken of de zoekterm bijvoorbeeld in de Meta-Title van het zoekresultaat aanwezig is, kunnen we de correlatie bepalen tussen het aanwezig zijn van de zoekterm in de Meta-Title en het scorend vermogen van de betreffende pagina op die zoekterm.
Maar: correlatie is niet hetzelfde als causatie!
David Hume wees driehonderd jaar geleden al op het feit dat correlatie niet hetzelfde is als causatie. Met een causaal verband wordt een oorzakelijk verband bedoeld. We weten dus niet de oorzaak van het feit dat pagina’s met de zoekterm in de Meta-Title vaker beter scoren dan pagina’s die dat niet hebben, sterker: we weten niet eens zeker of de Meta-Title daadwerkelijk in het rankingalgoritme wordt gebruikt, ook al is er een hoge correlatie tussen de twee.
Hume stelde dat wij mensen de neiging hebben om verbanden te zien die er niet zijn. Laat ik dit toelichten aan de hand van een ander SEO-voorbeeld. Alle SEO-onderzoeken laten een zeer sterk verband zien tussen scoringsposities van webpagina’s en het aantal Facebook shares/likes dat die pagina heeft gekregen. Je ziet dan dit soort plaatjes:
De rood omkaderde factoren zijn factoren die Facebook betreffen. De oppervlakkige lezer, en dat zijn we allemaal want we hebben nog zoveel andere dingen te doen, zal uit zo’n plaatje concluderen dat het rationeel is om Facebook te gaan inzetten om onze Google rankings te versterken. Maar niets blijkt minder waar, als we de reactie van Google op dit soort ontdekkingen beluisteren. Google zegt namelijk doodleuk ze geen Facebook-signalen (aantal likes, shares etc.) in hun rankingalgoritme gebruiken.
Ja maar, waarom scoort Facebook dan zo hoog?
Dat komt, zoals we inmiddels begrijpen, omdat in onderzoeken alleen bekeken kan worden in hoeverre een factor gecorreleerd is aan de rankings. Blijkbaar is het zo dat goed scorende pagina’s relatief meer Facebook-signalen hebben dan lager scorende pagina’s. Maar dat betekent nog niet dat Google die signalen ook daadwerkelijk heeft geïmplementeerd. Het kan natuurlijk best zo zijn (en dat is precies Google’s reactie) dat als een pagina veel Facebook-signalen heeft, die pagina waarschijnlijk ook relatief veel inkomende verwijzingen heeft. Het is immers een gewaardeerde pagina. Het is bekend dat inkomende verwijzingen expliciet in het Google algoritme worden gebruikt (dus een causaal verband hebben met de scoringsposities). Maar voor Facebook signalen geldt dat dus (hoogstwaarschijnlijk) niet.
Causale verbanden kunnen in principe alleen worden gevonden door in de programmacode van de zoekmachine te kijken. Daar kan exact worden achterhaald wat de logica achter de rankings is. Hoewel, ‘exact’? Door de vlucht die Artificiële Intelligentie technieken ook in het zoekalgoritme nemen, is het nog maar de vraag of alle logica achter de scoringsposities ooit nog helemaal geëxpliciteerd kan worden. Als wij mensen een vage afbeelding van iemands gezicht zien, en de persoon desondanks herkennen, dan kunnen wij ook niet precies zeggen hoe de herkenning tot stand is gekomen. Het is meestal een mix van niet te expliciteren factoren. Zo werkt het ook bij bijvoorbeeld Neurale Netwerken, een belangrijk gebied binnen de Artificiële Intelligentie, dat door Google op allerlei manieren is omarmd, bijvoorbeeld voor patroonherkenning. Maar daar kom ik in een apart artikel graag nog even uitgebreider op terug.
Maar hoe weten we dan dat –zoals ik zojuist stelde- inkomende verwijzingen wél een causaal verband hebben met de rankings, m.a.w. dat inkomende verwijzingen wél onderdeel zijn van het algoritme? We kunnen de programmacode toch niet inzien? Met de beantwoording van deze vraag moeten we weer een volgende stap zetten.
De kracht van redenatie
Hoewel ik iets niet zeker kan weten, meen ik het tóch te weten. Dat is eigenlijk best raar, en op het eerste gezicht ook niet zo wetenschappelijk. Toch is het mogelijk van verschillende aspecten van het algoritme een vrij aardig beeld te krijgen, zonder inzage in het algoritme zelf. Dit heeft te maken met de kracht van “redenatie”. Via een sterke redenatie kan soms zeer aannemelijk worden gemaakt dat iets simpelweg zo moet zijn. Een sterke redenatie steunt op twee aspecten.
Allereerst moet de redenatie logisch zijn. Vanuit de wetenschapsfilosofie zijn ons vele handvaten aangereikt voor een logische redenatie. Zo weten we allemaal dat een koe een dier is, maar dat we dan niet kunnen stellen dat een dier een koe is. Dit klinkt vrij triviaal, maar je moet maar eens opletten hoe vaak mensen, ook niet de minsten, desondanks de mist ingaan. Bijvoorbeeld: veel criminelen zijn Marokkaan. Conclusie: veel Marokkanen zijn crimineel. Om er maar eentje te noemen…
Ten tweede moet de redenatie steunen op heldere uitgangspunten. Voor wat betreft het verzamelen van uitgangspunten kunnen we –naast de hiervoor genoemde officiële publicaties van Google zelf- ook gebruik maken van bijvoorbeeld de volgende zaken:
- Huidige stand van de techniek
- Patenten van Google
- (Promotie) publicaties van specialisten die door Google zijn ingehuurd
- Keuzes door Google in het verleden
- Politieke stand van zaken en (verwachte) ontwikkelingen
- Sneak previews
Ik zal deze punten één voor één langslopen.
Invloed huidige stand van de techniek
Meestal vanuit een soort whisful thinking zien we regelmatig stellingen over de mogelijkheden van technologieën als Artificiële Intelligentie, Big Data, Neurale Netwerken, Genetische Algoritmen, etc., die –gegeven de stand van de techniek- nog helemaal niet waargemaakt kunnen worden. Door kennis te hebben van de stand van zaken kunnen bepaalde claims vaak eenvoudig van tafel worden gehaald. Voorlopig althans, want ik moet bekennen dat het tegenwoordig wel erg snel gaat allemaal, juist ook op die vlakken…
Patenten van Google
Een andere belangrijke bron van kennis voor onze redenaties, zijn de patenten van Google. Google laat namelijk regelmatig ideeën patenteren aangaande het zoekalgoritme. Een voorbeeld hiervan is een patent uit 2015 om kwaliteitsscores te berekenen voor websites. Dat patent kunt u hier vinden, ik toon u er een paar zinnen uit:
The site quality score for a site can be used as a signal to rank resources, or to rank search results that identify resources, that are found in one site relative to resources found in another site.Google
Het beroemdste patent van Google betreft natuurlijk het PageRank-patent uit 1998. Met de implementatie van PageRank werd Google geboren.
Met de inhoudelijke bestudering van de patenten weten we nog niet zeker of Google dit daadwerkelijk ook al heeft toegepast, maar het kan wel degelijk onderdeel zijn van onze redenaties, mits we duidelijk maken dat we ons (mede) baseren op een patent.
Publicaties van specialisten die door Google zijn ingehuurd
Iets soortgelijks geldt voor promotieonderzoeken of universitaire publicaties van personen die door Google in dienst zijn genomen. Als we bijvoorbeeld kijken naar het CV van Navneet Panda, een beroemde software engineer binnen het zoekalgoritme-team (of zoals ze het zelf noemen: “Google Search Quality team”), dan zie we allerlei publicaties van zijn hand die de analyse van teksten en zoekopdrachten betreffen. Het is niet vreemd te veronderstellen dat de kennis van personen die Google in dienst neemt, en op sleutelposities terecht komen, invloed hebben op het uiteindelijke product. Ook die kennis kunnen we daarom meenemen in onze redenaties, mits we daar helder over zijn.
Keuzes door Google in het verleden
Ik volg sinds begin van deze eeuw de ontwikkelingen rond Google’s zoekresultaten op de voet. Daaruit komt ook een beeld naar voren. Kort gezegd steunt dit beeld voor mij op een tweetal pijlers:
- Google’s Search Quality team bestaat uit technici die in alle oprechtheid continu bezig zijn een heel mooi product te maken;
- Google is een commercieel bedrijf dat aandeelhouders tevreden moet blijven stellen door de enorme winstgroei vast te houden.
Tussen deze twee pijlers zit een snel groeiend spanningsveld, vooral omdat het leeuwendeel van Google’s winst uit de betaalde zoekresultaten afkomstig is.
Je ziet bijvoorbeeld dat de gratis zoekresultaten steeds verder onder druk komen te staan: niet omdat de gratis zoekresultaten zelf slechter of commerciëler zouden zijn geworden (dat zijn ze in mijn optiek niet), maar vooral omdat de beschikbare ruimte voor gratis zoekresultaten afneemt. Bij met name commerciële zoekopdrachten wordt het gehele scherm initieel gevuld met betaalde advertenties. Pas als we naar beneden scrollen zie we de gratis resultaten. Kijk hier maar eens, of hier.
Politieke stand van zaken en (verwachte) ontwikkelingen
De laatste, hiervoor genoemde, link leidt naar een voorbeeld van een situatie waarover Google in de clinch ligt met de Europese Commissie: bevoordeelt Google hier haar vergelijkingsproduct (Google shopping) t.o.v. andere vergelijkingsites (zoals bijvoorbeeld beslist.nl)? Er zijn zelfs landen binnen de EU (Duitsland, Frankrijk) die Google oproepen de black box te gaan openen. Dit soort zaken kunnen we meenemen in onze redenaties rond het al dan niet aanwezig zijn van bepaalde rankingfactoren. Bijvoorbeeld: zal Google de volgende formule implementeren als er een kans bestaat dat die op tafel komt te liggen?
If site.Adwords=yes Then site.ranking = site.ranking + 1
Dat lijkt mij, op z’n zachts gesproken, niet slim. Het feit dat Google rekening te houden heeft met een situatie in de toekomst waarbij de algoritmen geopenbaard (moeten) worden, zal maken dat ze meer integer zullen handelen dan wanneer die situatie uitgesloten zou zijn. We gebruiken Google immers omdat we ze vertrouwen. Wat gaan we doen als blijkt dat dat niet het geval is? Toch maar op de OK-knop drukken als we de vraag krijgen of Bing onze standaardzoekmachine moet worden? Ik ga er vanuit dat Google dat risico niet wil nemen. Maar misschien ben ik op dit punt wat naïef.
Sneak previews
Google is constant allerlei veranderingen real-life aan het testen. Als een SEO dat opmerkt, publiceert deze dat vaak even in één of ander SEO forum. Een recent voorbeeld hiervan zijn de ‘cards’. Onder invloed van het toenemende gebruik van de zoekmachine via mobiele apparaten lijken de linkjes op de resultaatpagina langzaam maar zeker vervangen te gaan worden door verticaal gepositioneerde “informatie-eenheden” waar we horizontaal doorheen kunnen vegen.
Ook door gebruik te maken van sneak previews kunnen we onze redenatie verbeteren.
In het verlengde hiervan kan worden opgemerkt dat Google zijn aanpassingen meestal allereerst in de VS uitrolt. Door zoekresultaten aldaar in de gaten te houden weten we beter wat er –vermoedelijk- hier in Europa en Nederland ook gaat plaatsvinden. Soms zit er overigens wel één á twee jaar tussen het moment van lancering van een vernieuwing in de VS en NL. België volgt meestal weer wat later dan Nederland. De Belgen kunnen dus weer bij óns spieken.
Vermeld je bronnen!
Een cruciaal aspect van een overtuigende redenatie zijn de bronvermeldingen. Wáár heb je de kennis vandaan? Antwoorden kunnen zijn: “dat staat daar en daar”, of “dat heeft google toen en toen gezegd”, of “dat heb ik zelf ontdekt door dit en dat experiment uit te voeren”, of “dat denk ik omdat ik inschat dat Google zich om die en die reden zus en zo zal ontwikkelen”. Dat mag dus allemaal in een overtuigende redenatie, mits de redenatie wordt ondersteund door heldere bronverwijzingen. Alleen op die manier krijg je gefundeerde ontwikkeling van kennis.
Gemakzucht en misleiding via tools
Er zijn vele tools en plugins in omloop die door hun concrete aanwijzingen en signalen, de schijn van nauwkeurigheid, dus waarheid, geven. Als de tool zegt dat we de zoekterm nog een keer extra in de tekst moeten opnemen, om een voor de zoekterm geoptimaliseerde tekst te realiseren dan hebben we snel de neiging dat netjes te doen. Maar waar baseert zo’n tool dergelijke aanwijzingen op? Om commerciële redenen wordt er vaak maar wat geïmplementeerd. Zo las ik recent in een forum de opmerking dat de optimale pagina titel als volgt zou kunnen worden berekend:
(1 / (((Positie offset – titel lengte) / titel lengte) x (kw density / 3.2))) x 100
In deze lekker eenvoudig implementeerbare formule zien we bijvoorbeeld de zoekterm dichtheid (kw density). We weten echter al vele, vele jaren dat de zoekterm dichtheid geen rankingfactor is. Dat weten we uit de reacties op dit onderwerp door Google zelf, uit de publicaties omtrent het vakgebied dat precies over dit onderwerp gaat (Information Retrieval Systems) en uit ons eigen logische denken (waarom zou een tekst met een zoekterm dichtheid van 2.51% beter of slechter zijn dan één met een dichtheid van 1,76%??). En toch blijven de makers van seo tools hun klanten misleiden met deze onuitroeibare mythe. Maar het is natuurlijk ook aan de klanten zelf om zich minder opportunistisch op te stellen, d.w.z. zich niet zo eenvoudig te laten misleiden door dergelijke snelle -meestal zeer goedkope- adviezen.
Conclusie
Het SEO-vakgebied is een zeer lastige. Google stelt dat we ons niet te veel met SEO moeten bezig houden: “bouw nu maar gewoon een goede website voor je klanten, dan zorgen wij wel dat die gevonden wordt”, zeggen ze dan. Maar wat vinden zij een goede website? De makkelijkste manier is om Google maar gewoon te vertrouwen in hun objectiviteit en technische superioriteit, en over te gaan tot de orde van de dag (het bouwen van goede websites voor klanten). Maar voor SEO professionals is het antwoord hiermee niet gegeven. Die fungeren als stormrammen tussen Google en de aanbieders van content. Want die aanbieders hebben belangrijke vragen: hoe komt het dat mijn goede website niet wordt gevonden? En dan blijkt daar toch een heleboel over te zeggen. Onze antwoorden moeten -en dat is mijn stelling- daarbij gefundeerd kunnen worden op een goed systeem van waarheidsvinding. En precies daar hebben we wetenschappelijke methodes voor. In dit essay heb ik geprobeerd een aanzet te geven voor de toepassing van die methodes op het SEO-vakgebied.
Ter ondersteuning van de aanbieders van goede content hebben we dus de wetenschap nodig. Maar ook aan de kant van de afnemers, de zoekers, de consumenten, is steun van de wetenschap nodig: vinden wij de websites die Google blijkbaar goed vindt, zelf óók zo goed? Of moeten we hier wederom vertrouwen op Google’s objectiviteit en technische superioriteit? Maar vinden wij het ook ‘objectief’ als we na een zoekopdracht als ‘drone’ een pagina met alleen commerciële sites zien? Misschien wel, misschien niet, in ieder geval zouden wij (Europeanen) ook daarover een gefundeerde mening moeten hebben. Simpelweg omdat de impact van de organische zoekresultaten op onze kenniswerving zo groot is.
Paul Haarman zegt
Bedankt voor deze insteek Alain. Ikzelf ben helemaal voorstander van een meer wetenschappelijke benadering. Ook vanuit wetenschappelijke hoek (Hogescholen en Universiteiten) is welhaast geen interesse voor dit vakgebied. Men denkt vaak dat het gaat om wat trucjes die door allerlei zelfbenoemde specialisten worden uitgevoerd. Ik begrijp die gedachtegang, maar daar moeten we vanaf. Bovendien, SEO is niet alleen een techniek om hoger te ranken. Het is veel meer dan dat, het leert je nadenken over de wijze waarop je doelgroep en mensen in het algemeen hun behoeften en noden omzetten in handelingen (het intikken van een bepaalde zoekopdracht).
Edon van Asseldonk zegt
Mooi artikel en ik ben het er helemaal mee eens dat een meer wetenschappelijke benadering veel partijen in de SEO-markt goed zou doen. Over SEO worden vele zinnige, maar ook vele onzinnige zaken geschreven en gezegd. In veel artikelen worden claims gedaan zonder bron of deugdelijke onderbouwing en soms gaan deze claims dan weer een eigen leven leiden. Aan de andere kant zijn er ook websites en blogs die juist weer van heel goed niveau zijn. Ik denk dat dit ook niet zal veranderen en dat het de kunst is om de zin van de onzin te scheiden.
Iedereen kan zich SEO-specialist, expert, content marketeer etc. noemen. Hierdoor is onze beroepsgroep erg divers en bestaat deze uit mensen met verschillende achtergronden, opleidingen en leeftijden, en hier is naar mijn mening ook helemaal niets mis mee. Doordat er vaak druk op ons ligt om ons te profileren, schrijven we een hoop artikelen of produceren we andere content. Deze content is verschillend van niveau door onder meer verschillen in expertise van de schrijvers, doel van de content, tijdsdruk en door verschil in kwaliteit van de SEO-specialisten in kwestie. Dit zie ik niet veranderen en er zullen in de toekomst talloze oppervlakkige en slecht onderbouwde artikelen verschijnen.
Je (Alain) wil een aanzet geven tot de verwetenschappelijking van SEO. Daar ben ik het helemaal mee eens, maar ik denk dat er al partijen zijn die dit heel goed in de praktijk brengen. Zo noem je zelf al Moz als partij die zelf onderzoek uitvoert in ons vakgebied. Ook de guest posts op Moz zijn vaak van erg hoog niveau met vernieuwende inzichten gestoeld op (case) studies. Verder zijn er nog meer partijen (onder andere Buzzsumo) die, naar mijn mening, SEO op een wetenschappelijke manier benaderen. Uiteraard kan het altijd meer en beter, maar ik weet niet of hier een taak voor de academische wereld ligt, gezien de snelheid van de ontwikkelingen in ons vakgebied.
De noodzaak van een wetenschappelijke benadering vind ik vooral een noodzaak voor iedereen (inclusief mijzelf) die zijn of haar werk zo goed mogelijk wil uitvoeren. Door een wetenschappelijke benadering kun je als lezer van SEO-blogs en artikelen ook zelf een onderscheid maken tussen goede en minder goede SEO-artikelen. Als iemand bijvoorbeeld schrijft: “Video converteert 125% beter dan tekst”, zonder enige bronvermelding, dan ga ik dit al in twijfel trekken. Ook voor ondernemers en bedrijven die met SEO-specialisten werken, is een wetenschappelijke benadering goed om het niveau van de specialist in kwestie te kunnen beoordelen. Wees kritisch en stel lastige vragen. Er wordt een hoop geroeptoeterd en nagepraat (over SEO, maar eigenlijk over alles in de wereld), en daarnaast zijn er ook, helaas, niet-integere SEO-specialisten. Door als klant kritische vragen te stellen, krijg je een idee van het niveau van je specialist. Ook mag je openheid van je SEO-specialist/online marketeer eisen over zijn of haar werkwijzen en als de specialist deze niet kan of wil geven, dan is dit een teken aan de wand.
Omdat er zoveel goede en slechte artikelen op het gebied van SEO (en online marketing) worden geschreven, is het lastig om door de bomen het bos te zien. Zelf volg ik voornamelijk Moz en Searchengineland (en Buzzsumo en SEMrush in mindere mate) en ik heb het idee dat ik hiermee goed de ontwikkelingen op het gebied van SEO kan volgen.
Alain Sadon zegt
Dank, Edon, voor je heldere en goede bijdrage aan de discussie!
Gustavo Woltmann zegt
Zeer interessante invalshoek en na het artikel gelezen te hebben, ook helemaal terecht. Maar hoe wek je nu interesse vanuit de academische wereld voor dit onderwerp? Het is inderdaad zo dat iedereen zich tegenwoordig SEO-specialist kan noemen (dat doe ikzelf niet, ik heb een basiskennis van SEO en gebruik dit tijdens het schrijven van blogartikelen e.d., maar ben verre van een specialist). Is het tijd om een nieuwe opleiding/titel te creëren?
Alain Sadon zegt
Ja, dat is een goede vraag. Ik ben op twee fronten bezig:
1. Concreet in gesprek met Universiteit van Leuven en Technische Universiteit van Delft.
2. Opleiding gestart, waarin ik genoemde principes doceer en verder probeer te verdiepen: https://www.seoguru.nl/seo-training/opleiding-seo-specialist/
Gustavo Woltmann zegt
Bedankt voor je antwoord Alain. Fantastisch dat je concrete gesprekken voert met twee belangrijke universiteiten en dat je zelf een opleiden hebt gestart. Proficiat!
Gerben G van Dijk zegt
Hoe je de waarheidsvinding over SEO ook uitvoert. Het blijft een continu proces.
Ik denk bijvoorbeeld dat evolutie in zoekgedrag en evolutie in onze (Westerse) cultuur mede voorschrijft hoe de ‘Black box van Google’ zich verder gaat ontwikkelen. Dat alleen al maakt dat we voortdurend ‘de waarheid’ moeten reconstrueren. Zelfs (anticiperen op) wettelijke maatregelen, door Google zelf, is in zichzelf al een verandering van rankingfactoren. Ambities en budget van Google ook. Zelfs als SEO adviseurs wetenschappelijker onderzoeken, moet de waarheid dus steeds opnieuw ‘gevonden worden’. Mogelijk moet er een algoritme komen voor alle SEO artikelen en beweringen in de wereld, waarmee de waarheid, voor dat moment, even gestold kan worden 🙂 Verder geen garanties.