Analytics en DataBlogE-commerceMarkethings.net informeert

Meten is Weten – Het hoe en wat van A/B Testen

A/B testen

Is het je wel eens opgevallen dat een website er de ene dag anders uitziet dan de andere? Of dat hij op jouw laptop net iets anders is dan op die van je buurman? Dit heeft alles te maken met A/B testen. Wellicht dat je de term al eens voorbij hebt zien komen, want in de marketing wereld zijn A/B testen niet meer weg te denken. De hoogste tijd dat wij er ook iets over gaan schrijven! Wat zijn A/B testen precies? Waarom zijn ze zo populair? En wat is het juiste proces om een aan A/B test uit te voeren en te analyseren? Je leest het in deze blog!

Wat zijn A/B testen?

Een A/B test is een onderzoeksmethode die kijkt welke van twee varianten het meest effectief is. Het wordt bijvoorbeeld gebruikt om te onderzoeken wat de beste versie van een website of nieuwsbrief is. Kan de afbeelding het beste rechts of links staan? Werkt een rode knop beter dan een zwarte knop? Marketeers hebben hier, gebaseerd op intuïtie, vaak een idee over, maar is deze altijd correct? Met een A/B test weet je het zeker: meten is weten! De naam van de test is wel een beetje misleidend, want er kunnen ook (veel) meer dan twee versies tegelijk getest worden.

Een A/B test is in principe een experiment. Stel dat er twee versies van een website zijn, dan krijgt de helft van de bezoekers versie A te zien en de andere helft versie B. Bezoekers worden willekeurig bij een van beide versies ingedeeld. Vervolgens wordt er gemeten welke versie de hoogste conversie oplevert. Ik zal later terugkomen op verschillende vormen van conversie.

AB test

Waarom zo populair?

De laatste jaren zijn A/B testen steeds populairder geworden. Dit heeft vooral te maken met het feit dat ons leven zich steeds meer online afspeelt. Op een website of in een digitale nieuwsbrief pas je gemakkelijk kleine dingen aan. Er kan continu geoptimaliseerd worden. Dit is moeilijker met een billboard dat langs de snelweg staat. Ook kun je bij de laatste niet bijhouden of de automobilist die het billboard zag, dezelfde persoon is die later wat bij je koopt.

Daarnaast is het online mogelijk om willekeurig mensen een bepaalde versie te laten zien. Offline is dit (zo goed als) onmogelijk. Stel je voor dat je twee versies van een supermarkt wilt testen. Er zijn twee opties: twee verschillende supermarkten vergelijken in dezelfde maand, of een supermarkt na een maand ombouwen en de tweede maand met de eerste vergelijken. In beide gevallen kunnen er echter externe invloeden zijn die het verschil tussen beide versies verklaren. Bij de eerste optie staan de supermarkten in een andere buurt en bij de tweede optie kunnen er tijd-effecten zijn. Bij een online A/B test waarbij mensen volledig willekeurig een bepaalde versie te zien krijgen, zijn alle mogelijke externe invloeden ook willekeurig verdeeld.

Hoe begin ik een A/B test?

Allemaal leuk en aardig, maar hoe voer je een A/B test uit? Alles begint met het vaststellen van een doel. Eerder hadden we het al over ‘de versie die de meeste conversie oplevert’. Wat gezien wordt als conversie ligt aan het doel dat je stelt. Voorbeelden van conversie zijn: op een link klikken, een product bestellen of inschrijven voor de nieuwsbrief.

Bedenk vervolgens welke aanpassingen aan de website (of nieuwsbrief, advertentie etc.) zouden kunnen bijdragen aan het verhogen van de conversie. Dit kan bijvoorbeeld gebaseerd worden op intuïtie of wetenschappelijk onderzoek. Voorbeelden zijn het aanpassen van een kleur, bullet points i.p.v. tekst of de locatie van een knop. Pas wel op dat je per A/B test maar 1 ding aanpast, anders is het onmogelijk om een verschil in conversie aan één verandering toe te wijzen. (Het is wel belangrijk om het grote geheel in de gaten te houden, lees ook deze blog over hoe A/B testen voor booking.com uitpakt).  

conversie optimalisatie

Als je het echt perfect wilt doen, stel je van te voren ook een hypothese op van het verwachte effect. Bijvoorbeeld: de rode knop leidt tot 5% meer conversie dan de zwarte knop. Dit specifiek moeten vastleggen zorgt ervoor dat je goed nadenkt over mogelijke aanpassingen. Het voorspellen van de grootte van een effect is ook belangrijk om de looptijd van de A/B test te bepalen. Basis statistiek leert ons dat er een grotere sample size nodig is om een klein effect te signaleren. Voor een klein verwacht effect heb je dus meer bezoekers nodig en een langere looptijd.

En, heeft het gewerkt?

Dat één versie simpelweg meer conversie oplevert dan de andere, betekent natuurlijk niet meteen dat dit verschil ook significant is. En dit is wel waar je naar op zoek bent. Een significant verschil betekent dat het verschil tussen versies niet slechts een kwestie van toeval is. Een simpele t-test helpt je om het significantie niveau te bepalen.

Hou wel in gedachten dat je eerste A/B testen waarschijnlijk beter lijken te werken dan latere. Op het moment dat je begint met het optimaliseren van je website zijn er nog veel ‘quick wins’. Makkelijke, voor de hand liggende aanpassingen die veel verbetering opleveren. Echter, als deze ‘quick wins’ zijn aangepakt, wordt het steeds moeilijker om zaken te vinden die veel extra conversie opleveren. Ook weet je alleen van de versies die je hebt getest, welke het beste is. Dit betekent niet dat er geen betere versies zijn. Dit betekent alleen dat je (nog) geen betere versie hebt geprobeerd.

Daarnaast is het belangrijk om de uitkomsten van je A/B testen te documenteren. Dit helpt om verschillende experimenten te vergelijken en te onthouden wat je allemaal al getest hebt. Veel dingen om in één keer over na te denken. Gelukkig zijn er online tools die je helpen met het opzetten van A/B testen.

Conclusie

A/B testen helpen je meten welke online veranderingen werken. Waar dit in het verleden vaak op gevoel ging, kunnen keuzes nu met data ondersteund worden. De testen zijn makkelijk uit te voeren, zeker met bestaande tools. Vooral in het begin kunnen A/B testen erg effectief zijn om ‘quick wins’ te behalen.  

Een mogelijke uitbreiding op de standaard A/B test is het gebruiken van voorkeuren per doelgroep. Als je weet dat bij mannen de rode knop beter werkt en bij vrouwen de zwarte, is het een interessante optie om aan de hand van het geslacht van de bezoeker een andere website te laten zien.

Kijk vooral ook eens op deze of deze website voor geslaagde voorbeelden!

Bronnen

The following two tabs change content below.
blank

Lois van der Molen

Lois studeert de Research Master richting consumentengedrag aan Tilburg Universiteit. Ze is vooral geïnteresseerd in voeding en duurzaamheid. Daarnaast is ze fan van reizen en ook de voorzitter van de markethings.net commissie.

Een gedachte over “Meten is Weten – Het hoe en wat van A/B Testen

Geef een reactie

Het e-mailadres wordt niet gepubliceerd.