A/B-Testing ist für viele Händler so etwas wie das geschnittene Brot der Webshop-Optimierung. Doch dabei kann so einiges schief gehen. Für genaue Ergebnisse beim A/B-Testing von Websites und Onlineshops sollte man eine Handvoll an Tipps beherzigen.

Optimierungsmaßnahmen sollten nie ohne vorheriges Testing durchgeführt werden. A/B-Testing ist da vielfach das Mittel der Wahl. Dabei werden mehrere Webseiten-Varianten an Besucher ausgespielt und gegeneinander getestet. Was einfach klingt, birgt aber einige Fallstricke, die der Web-Controlling- und Targeting-Anbieter etracker vorstellt.

1. Wildes Testen ohne Strategie  

Da A/B-Tests im Handumdrehen erstellt werden können, verführt das dazu, ohne Strategie zu handeln. Marketingverantwortliche sollten zunächst das Problem identifizieren und dann eine Hypothese formulieren: "Wenn ein durch verändert wird, erreichen wir eine Verbesserung von ."

2. Achtung Fehlerteufel  

Wenn es an den Launch eines A/B-Tests geht, ist ebenfalls Bedacht angesagt. Einmal nicht aufgepasst und der Fehlerteufel hat sich eingeschlichen. Vor dem Release des Tests müssen Marketingverantwortliche noch einmal explizit die Funktionalität sowie die Anzeige der Varianten in unterschiedlichen Browsern und auf diversen Endgeräten prüfen.

3. Zu hohe Ziele  

Mehr Bestellungen oder Umsatz als Ziel eines A/B-Tests anzugeben, kann den Test verfälschen, weil zu viele Faktoren auf den Verkauf einwirken. Es gilt, auf kürzere Conversion-Ziele zu setzen, sogenannte Mikro-Conversions. Wird im A/B-Test ein neuer Call-to-Action-Button ausprobiert, kann das Ziel der Klick darauf sein.

4. Duplicate Content würgt SEO-Ranking  

Ein gutes Suchmaschinenranking kann durch A/B-Tests schnell zunichtegemacht werden. Damit die Seitenvarianten von Google nicht als Duplicate Content behandelt werden, muss man den Content der Seite dynamisch ändern, so dass der Google-Crawler immer nur die Originalseite durchsucht.

5. Zu schnell Ende im Gelände  

Auch wenn sich nach 100 Testbesuchern schon ein Gewinner des A/B-Tests herauskristallisiert, die Datenmenge muss groß genug sein, um die Gewinner-Variante mit statistischer Signifikanz zu bestimmen. Typischerweise braucht es einige 100 bis 1000 Besucher pro Test, abhängig davon, wie stark sich die Conversion-Rate der Seitenvarianten vom Original unterscheidet.

6. Aus den Augen aus dem Sinn  

Ein A/B-Test kann manchmal schneller ein eindeutiges Ergebnis erzielen, als man vermutet. Mit jedem Tag, an dem der A/B-Test noch läuft, büßt der Websitebetreiber Umsatz oder zumindest die definierten Conversion-Ziele ein. Ein Autopilot kann helfen. Er erkennt, wenn es eine eindeutige Gewinnervariante gibt, und spielt diese mehrheitlich aus.

7. Testing ohne Segmentierung  

In der Regel werden A/B-Tests über alle Kundengruppen gefahren. Allerdings sollte der Marketingverantwortliche die Ergebnisse immer segmentieren, nach Wiederkehrern, Stammkunden etc. Das ermöglicht auch einen ersten Einblick in mögliche Personalisierungsstrategien. Je nach Besuchergruppe und Verhalten können dann personalisierte Websiteinhalte automatisch ausgespielt werden.