Kommunikation verändert, Conversion Rate optimiert, Umsatz gesteigert – wem das gelingt, hat vielleicht die richtigen Experimente durchgeführt. Einfache A/B-Tests können beim Studium des Kundenverhaltens wertvolle Erkenntnisse liefern – wenn sie richtig aufgesetzt werden.
Das Unterfangen, genaue Kenntnis des Kunden zu erlangen, um diesem maßgeschneiderte Angebote machen zu können, ist schwierig und nicht immer von Erfolg gekrönt. Der Mensch ist komplex, sein tatsächliches Verhalten entspricht oft nicht zuvor formulierten Absichten, beim Einkaufen ebenso wie in anderen Interaktionen.
Wir leben in einer Ära, die von großer Beschleunigung geprägt ist, die Reaktionszeiten auf Impulse werden immer kürzer, was Experimente begünstigt. Denn eigentlich ist doch agiles Arbeiten nichts anderes: Ein Produkt entsteht in vielen kleinen Schritten, die weitere Entwicklung ist immer eine Reaktion auf zuvor gemachte Erfahrungen.
Diese Art des Arbeitens kann auch bei der Optimierung der Webkommunikation sehr hilfreich sein: "Experimentation" ermöglicht, Kunden schrittweise über das Studium ihres Verhaltens besser kennenzulernen. Plattformen wie Amazon, Netflix und Booking.com führen kontinuierlich Experimente durch, um Ideen schnell zu validieren.
"Experimentation" ist Teil ihrer Unternehmenskultur und hilft, neue Produkte zu kreieren und diese erfolgreich zu implementieren. „Unser Erfolg ist unmittelbar davon abhängig, wie viele Experimente wir pro Jahr, Monat, Woche und Stunde durchführen”, hat Jeff Bezos einmal über das Arbeiten bei Amazon gesagt. Über booking.com heißt es, "Experimentation" sei dort inzwischen so tief verwurzelt, dass jede Änderung angefangen von kompletten Re-Designs über Infrastruktur-Änderungen und Bug-Fixes im Rahmen eines Experiments überprüft werde.
In einem Zeitalter, in dem das Internet für praktisch alle Unternehmen überlebenswichtig geworden ist, sollten Onlineexperimente nach wissenschaftlichen Methoden nicht nur bei den größten Unternehmen der Branche zu den Standardverfahren gehören.
Eines der im Prinzip am einfachsten durchzuführenden Verfahren sind A/B-Tests von User Interfaces. Mit dieser auch als Split-Testing bekannten Methode lassen sich zwei Versionen einer Webseite oder App vergleichen. Diese sind im Design identisch bis auf eine oder zwei Komponenten, beispielsweise die Positionierung oder Beschriftung eines Buttons.
So lässt sich ermitteln, welche Auswirkungen einzelne Veränderungen auf Messwerte wie Registrierungen, Downloads, Einkäufe oder andere benutzerdefinierten Ziele haben. Ein derartiges kontinuierliches Testen und Optimieren einer Website kann den Umsatz, Spenden, Leads, Registrierungen, Downloads und die Zahl nutzergenerierter Inhalte steigern und bietet gleichzeitig wertvolle Einblicke in das Besucherverhalten.
Fallbeispiel: A/B-Testing @ Secret Escapes
Secret Escapes ist ein Anbieter von Luxusreisen, der weltweit Discounts auf Vier- und Fünf-Sterne-Hotels anbietet. Aktuell hat das Unternehmen über seine iOS/Android-Apps und Websites mehr als 10 Millionen potenzielle Nutzer. Im extrem kompetitiven Reisemarkt testet Secret Escapes all seine Änderungen an Websites und Apps mit einer eingeschränkten Zahl an Nutzern, bevor diese allen zugängig gemacht werden.
Als Secret Escapes seine erste mobile App entwickelte, war eine der Kernfragen: Sollte zur Nutzung der App und dem Zugang zu Reiseangeboten eine Registrierung erforderlich sein? Die Ansichten hierzu waren sehr unterschiedlich.
Eine zwingende Registrierung würde einen exklusive Nutzerkreis schaffen, was wiederum den Hoteleignern gefallen würde. Andere Stimmen hingegen warnten, eine derartige Hürde würde nicht nur die Abgabe schlechter Nutzerurteile begünstigen, sondern sich auch negativ auf die Registrierungsraten auswirken. Diese aber mussten eine bestimmte Höhe haben, damit sich für Secret Escapes die durchschnittlichen Akquisitionskosten neuer Nutzer rechneten.

Anders als erwartet erwies sich die zwingende Registrierung als besser: Die Zahl der Nutzerregistrierungen war doppelt so hoch wie bei der Vergleichsversion, es gab keine negativen Besprechungen oder Kommentare. Die zwingende Registrierung vergrößerte den durchschnittlichen Customer Lifetime Value (CLV). Mit den Daten aus diesem Experiment und dem Verständnis des CLV kann Secret Escapes die Werbeausgaben intelligenter einsetzen.
Secret Escapes führt auf den Websites und Apps des Unternehmens durchgängig rund zehn verschiedene Experimente durch. Der Testkalender wird wöchentlich in Meetings besprochen, dann werden auch neue Ideen diskutiert, die jeder aus dem Unternehmen einbringen kann. Denn das ist ein ganz wichtiger Aspekt der Experimentalkultur: dass jeder aus einem Unternehmen Vorschläge für Experimente einbringen kann. Damit dies auch funktioniert, sollte jedem Mitarbeiter das Gefühl vermittelt werden, dass es geschätzt wird, wenn er oder sie sich einbringt.
Zu den nächsten Secret-Escapes-Tests werde laut Fallert die Klärung von Fragen gehören, die das Einkaufsverhalten betreffen: Wieviel Informationen müssen dem Kunden in jedem Schritt seines Einkaufserlebnisses bereitgestellt werden? Sind prozentuale Rabatte effektiver als die Angabe absoluter Preisnachlässe? Muss man überhaupt Preise zeigen? All diese Fragen wurden bereits auf der Website getestet, jetzt sollen sie im Mobile-Segment überprüft werden, weil es sich ja von den bereits gemachten Erkenntnissen unterscheiden könnten.

Kostengünstige Variante des A/B-Test: der Painted-Door-Test
Während bei A/B-Experimenten die Auswirkungen tatsächlich funktionaler Alternativen getestet werden, wird beim Painted-Door-Test bereits vor Entwicklung einer bestimmten Variante überprüft, ob es hierfür unter den Nutzern eine signifikante Zugriffsrate (sprich: Interesse) gibt.
Statt ein Feature komplett zu gestalten, wird dieses lediglich angedeutet. Klickt ein Nutzer auf einen Call-to-Action-Button oder einen Link, erhält er eine Information wie “Dieses Feature haben wir noch nicht eingerichtet, aber wären Sie an einer derartigen Information interessiert?” Die entsprechenden Zugriffe können gemessen werden.
Dieses Verfahren birgt das Risiko, den Nutzer über diese Erfahrung zu frustrieren; man sollte also wissen, ob die Anwender offen für deratige Experimente sind. Und man muss die Nutzererfahrung so interessant gestalten, dass sie eben nicht frustrierend ist.
Optimizely hat damit gute Erfahrungen gemacht. Die Kunden, die Teilnehmer eines Painted-Door-Experiments waren, bekamen einen Benefit: Sie wurden informiert, dass Optimizely ein bestimmtes Feature entwickeln wollte und gebeten, sich zu registrieren, um quasi als Beta-Tester die Neuentwicklung vorzeitig testen zu können. Die Reaktionen waren durchweg sehr positiv. Ein derartiges Experiment ist kostengünstig, kommt ohne eine Zeile neu geschriebenen Codes aus und kann bestätigen, dass man in die richtige Richtung geht.
Valide Daten erhält man nur in der Praxis
Wenn es um die Frage geht, Optimierungsvorschläge in der Praxis zu testen, werden Entscheidungen nach wie vor noch viel zu oft nach Bauchgefühl (sprich: auf Basis des eigenen Verhaltens als Nutzer) gefällt. Auch Experten haben Schwierigkeiten, neue Ideen richtig einzuschätzen. Doch für große und kleine Unternehmen gilt gleichermaßen: Valide Daten erhält man nur in der Praxis. Experimente helfen, Erwartungen und Praxis abzugleichen. Wichtig ist hierbei, offen für Ideen zu sein, sich beim Test der Ideen realistische Ziele zu setzen und Fehler immer so zu betrachten, dass man aus ihnen lernt.
MEHR ZUM THEMA: