Menü

A/B-Test von Webseiten

AB-Tests von Webseiten

Warum ein Artikel zum A/B-Test mit dem Visual Website Optimizer?

Wie funktioniert der A/B-Test? Im Artikel „Hypothesentest“ haben wir die Grundlagen für die Ausführung eines Hypothesentests gelegt, in diesem Artikel wird nun ein praktischer Anwendungsfall als A/B-Testgezeigt. Dieser Anwendungsfall ist Teil unseres kontinuierlichen Verbesserungsprozesses (KVP).

Anhand einer Internetseite werden wir einen A/B-Test aufstellen, bei dem zunächst die Problemstellung erörtert wird. Danach wird ein Lösungsansatz ausgearbeitet und eine Hypothese aufgestellt. Daraufhin führen wir mit dem Visual Website Optimizer einen A/B-Test durch, betrachten danach die Resultate und deuten diese. Mit diesem Test bekommen wir sinnvolle Ergebnisse über das beste Vorgehen.

Was ist die Problemstellung?

Wir haben bei einem unserer Top-Artikel (Ein Organigramm erstellen) die Bounce-Rate bestimmt und festgestellt, dass diese bei ca. 78 % liegt. Die Bounce-Rate gibt an, wie viele Webseiten-Besucher nur EINE EINZIGE Webseite besuchen und keine weiterführenden Links anklicken. Diese Leser sind also schnell da, aber ebenso schnell auch wieder weg. Das Ziel ist es, die Leser dazu zu animieren, tiefer in das Angebot an Informationen einzusteigen und mindestens eine weitere Seite zu besuchen. Deshalb ist ein Ziel des A/B-Tests, die Bounce-Rate zu senken.

Denkbare Lösungsansätze für A/B-Tests

Nun muss man sich eine Möglichkeit überlegen, wie man diese Bounce-Rate senken könnte, also die Webseiten-Besucher dazu bringt, die weiterführenden Links anzuklicken oder sich allgemein mehr mit der Webseite zu beschäftigen. Es gibt mehrere Möglichkeiten dies zu erreichen:

  • Qualitativ hochwertige Texte verfassen. Bei sinnvollen und inhaltlich interessanten Artikeln werden Leser auch neugierig auf andere Texte vom Verfasser
  • Ähnliche oder weiterführende Artikel am Seitenende anbieten
  • Auflistung weiterführender Themenbereiche am Anfang eines Beitrags
  • Nicht zu auffällig oder zu viel Werbung, Werbung bringt zwar Geld, aber die Besucher sollten nicht genervt davon werden, da sie sonst die Seite bald wieder verlassen
  • Kommentare zu dem Artikel anzeigen, sie zeigen die Aktualität und Qualität des Artikels
  • Interne Artikel verlinken, im Artikel kann man andere Artikel seiner Webseite verlinken, damit die Webseiten-Besucher schon beim Lesen auf sie aufmerksam werden
  • Umfragen anbieten, welche Themen die Besucher interessieren, so erhält man Ideen für interessante Artikel, die zudem noch das Interesse an der Webseite hochhalten
  • Bei Verkaufsseiten sollte man vertrauensfördernde Elemente schon auf der Startseite erkennen. Beispiele dafür sind Qualitätssiegel für sichere Online-Shops oder eine Telefonnummer statt nur der Internetadresse, falls es feste Verkaufsstellen gibt, deren Adresse mitangeben. Diese Maßnahmen fördern das Vertrauen der Kunden und geben ihnen Sicherheit, durch die sie zum Kauf bzw. Entdecken der Angebote bereit sind.

Dies sind verschiedene Ideen, mit denen man die Bounce-Rate senken kann. Wir greifen nun einen dieser Vorschläge auf und formulieren daraus unsere Hypothese für den A/B-Test.

Das Testobjekt

Das Testobjekt für den A/B-Test

Auf unserer bisherigen Webseite sind schon einige dieser Ratschläge umgesetzt worden. Nun fügen wir noch eine Auflistung der weiterführenden Themen ein, um damit vielleicht eine geringere Bounce-Rate zu erhalten. Der Hypothesentest beginnt mit der Auswahl, der Zielsetzung und einem Merkmal für den A-/B-Vergleich.

Die Hypothese  für den A/B-Test aufstellen

Nun formulieren wir noch eine Hypothese, diese lautet:
Die Bounce-Rate verringert sich, wenn wir eine Auflistung der weiterführenden Themenbereiche einfügen. Zusätzlich vergrößern wir die Überschrift zu den weiterführenden Artikeln, um die Aufmerksamkeit auf diese zu lenken.

Dies könnte der Fall sein, falls jemand ähnliche oder weiterführende Artikel sucht. Er sieht eine Auflistung der Themenbereiche, und statt wieder auf die Suchmaschine zurückzugreifen, wendet er sich vielleicht noch einem Artikel zu, der in der Auflistung bzw. auf der Seite verlinkt wird.

A/B-Test durchführen

Nun starten wir den Visual Website Optimizer, dann klicken wir auf Create, um einen neuen Hypothesentest zu starten. Da wir einen A/B-Test wollen, wählen wir den A/B-Test aus.

Anlegen einer Test-Kampagne

Anlegen einer Test-Kampagne als A/B-Test

Dann wird ein Fenster geöffnet, in das wir die URL der Webseite eintragen, die optimiert werden soll.

URL des Testobjektes festlegen

URL des Testobjektes festlegen

Danach klickt man auf Next und der Visual Website Optimizer öffnet die Internetseite, woraufhin man diese gestalten kann. Nun fügen wir hier die Buttons ein und verlinken sie jeweils mit der entsprechenden Website.

Eine Variante grafisch editieren

Eine Variante im A/B-Test grafisch editieren

Man kann jedes Element der Website anklicken und dann verändern. Es werden verschiedene Möglichkeiten aufgelistet, man kann den Text ändern durch Change Text, die Größe und den Ort durch die Option Move/Resize bestimmen, die Farbe verändern durch Style etc.
Hier wurden die jeweiligen Buttons eingefügt und die Größe und der Stil an die Webseite angepasst. Durch einen Klick auf Change URL öffnet sich ein kleines Fenster, indem man die URL der zu verlinkenden Webseite eintragen kann. Durch Change Text kann man noch den Text des Buttons verändern. Zudem vergrößern wir die Überschrift über die weiterführenden Links durch die Option Style. Hier muss man die Schriftgröße durch font-size ändern, statt 14 px setzten wir sie auf 18 px. Dies lenkt die Aufmerksamkeit der Besucher auf die weiterführenden Links. Der Hypothesentest verfolgt eine Zielsetzung und sollte nicht zuviele Elemente verändern.

Eine Variante grafisch editieren - Anpassungen

Eine Variante grafisch editieren – Anpassungen

Wenn alle Änderungen gemacht wurden, muss das Ziel des Hypothesentests festgelegt werden. Wir wollen unsere Bounce-Rate erhöhen, das heißt wir wollen erreichen, dass die Besucher weiterführende Links anklicken. Deshalb werden wir die Klicks auf jeden zusätzlich eingefügten Button zählen, dies kann man, indem man das Element (Button) anklickt und in der Auswahl auf Track Clicks geht.

Ein Ziel für den AB Test festlegen

Ein Ziel für den A/B-Test festlegen

Nun öffnet sich ein kleines Fenster, hier kann man auswählen, was gezählt werden soll. In diesem Fall möchten wir die Clicks auf das Element zählen und wählen deshalb die zweite Option. Nun könnte man die Clicks für jeden Button einzeln als Ziel definieren oder die Gesamtanzahl der Klicks als ein gemeinsames Ziel betrachten. Da uns eigentlich hauptsächlich interessiert, ob die Buttons überhaupt genutzt werden und nicht wie oft jeder einzeln gedrückt wird, kann man alle zu einem Ziel zusammenfassen. Wenn man die Ziele festgelegt hat, werden sie mit rot umrandet, sobald man auf Goal 1 drückt.

Weitere Anpassungen an der Seite

Weitere Anpassungen an der Seite

Wenn man damit fertig ist, klickt man auf NEXT. Dann wird man weitergeleitet zu einer Übersicht über die Ziele. Hier kann man noch weitere Ziele hinzufügen.

Zusammenfassung und Überblick

Zusammenfassung und Überblick über den A/B-Test

In unserem Fall des Hypothesentests fügen wir als Ziel noch track engagement hinzu. Diese Funktion zählt, wie oft die verschiedenen Felder der Seite angeklickt werden. Wenn man seine Ziele ausgesucht hat, klickt man wieder auf NEXT. Zum Schluss erhält man auf der rechten Seite einen Überblick über die Varianten der Webseite und die Ziele, die man festgelegt hat. Auf der linken Seite kann man nun den Hypothesentest benennen, zudem gibt es noch die Möglichkeit, Heatmaps zu erstellen, die anzeigen, auf welche Felder die Besucher besonders häufig klicken. Wenn man alles nach seinen Wünschen eingestellt hat, kann man den Test fertigstellen, indem man auf Finish drückt. Nun muss man nur noch Start now anklicken, damit der Test beginnt. Während der Test läuft, kann man den Zwischenstand der Ergebnisse betrachten und verfolgen, ob sich die Anzahl der Klicks auf der Webseite erhöht.

Resultate des A/B-Tests betrachten

Sobald das Programm bestätigt, dass es genug Daten gesammelt hat, kann man den Test stoppen. Nun muss man die Ergebnisse des Tests betrachten und auswerten. Zunächst erhält man eine Übersicht über das Hauptziel und das Ergebnis daraus.

Ergebnisse überprüfen

Ergebnisse überprüfen

Die C-Variante ist die ursprüngliche Variante und die Version 1 ist die veränderte Variante. Wenn man nun das tracks engagement betrachtet, sieht man, dass bei der Version 1 eine Steigerung von 46,29% erreicht wurde. Nun muss man nur noch den Grund dafür herausfinden.

Grafische Anzeige der Testergebnisse

Grafische Anzeige der Testergebnisse

Beim detaillierten Report erhält man eine Grafik, wie der Verlauf der Conversion-Rate aussieht. Man sieht, dass es am 29. September einen großen Anstieg dieser Rate bei der Version 1 gibt. Allerdings liegt die Version 1 im Allgemeinen bis auf den Anfang immer über der Control Version, dies zeigt, dass es nicht nur ein kurzer Trend ist. Da wir bei diesem Hypothesentest Heatmaps ermöglicht haben, können wir sie betrachten und somit feststellen, welche Links die Webseiten-Besucher angeklickt haben.

Clickmap der Testseite 1

Clickmap der Testseite 1

Die farblich gekennzeichneten Punkte zeigen an, wo die Besucher der Webseite geklickt haben. Hier erkennt man, dass unsere hinzugefügten Buttons nicht angeklickt wurden und deshalb keinen Einfluss auf die Bounce-Rate haben.

Clickmap der Testseite 2

Clickmap der Testseite 2

Allerdings erkennt man, dass die weiterführenden Links angeklickt wurden. Das Vergrößern unserer Überschrift hat die Aufmerksamkeit auf diese Links gelenkt, vor allem wenn man diese mit der Control Variante vergleicht (siehe unten). Wenn man nun die Ergebnisse mit Rücksicht auf unsere Hypothese betrachtet, hat man einen Teilerfolg zu verzeichnen. Die Hypothese, dass die Buttons zu den verschiedenen Themenbereichen die Bounce-Rate reduzieren, hat sich als falsch herausgestellt. Jedoch lässt sich durch die Vergrößerung der Überschrift bei den weiterführenden Links zu ähnlichen Artikeln die Aufmerksamkeit darauf lenken.

Fazit zum A/B-Test

Wie man an diesem Beispiel sieht, erhält man bei Tests nicht nur positive Resultate, da eine Hypothese abgelehnt wurde. Aber es lohnt sich auf jeden Fall diese Hypothesen zu überprüfen, wie man anhand unserer zweiten Hypothese sieht. Auf jeden Fall hat sich das track engagement unserer Variante 1 um ca. 40 % erhöht im Vergleich zur Control Variante, wodurch man den Test als erfolgreich einstufen kann. Es lohnt sich auf jeden Fall, sich mit diesem Thema auseinander zu setzen, um seine Webseite zu verbessern und sie somit auch benutzerfreundlicher zu gestalten. Allerdings sollte man es, wie im Artikel über Hypothesentests erwähnt, mit dem Testen nicht übertreiben, da diese sonst nicht mehr aussagekräftig genug sind.

Mein Tipp: Machen Sie maximal zwei bis drei Tests für eine Webseite und setzen Sie immer eine Hypothese auf, die zum Schluss überprüft wird. Wenn man sich an diese Punkte hält, hilft der Hypothesentest, um Ihren Webauftritt zu optimieren.

Mit bestem Gruß aus Bayreuth
Axel Schröder

Bildquelle: fotolia, © adiruch na chiangmai

Bonustipp zum A/B-Test

Noch mehr Anleitungen, eBooks und Videos zur Unternehmensführung!
In unserem internen Bereich finden Sie viele Schritt-für-Schritt Anleitungen, Kurse, eBooks und Videos, wie Sie Ihr Unternehmen optimieren.

Die Anmeldung zu unserem internen Bereich ist kostenlos, aber auf 100 Unternehmen limitiert!.