Eine mit ein bisschen Künstliche Intelligenz gesteuerte Twitter-Kampagne von Adidas ging im Sommer mächtig nach hinten los. Es war nicht der erste Fall in der Handels- und Markenwelt, bei dem KI für eine spektakuläre Peinlichkeit sorgte. Erinnern Sie sich?

Bis uns intelligente Maschinen sagen, wo es lang geht oder gar versklaven, ist es noch ein sehr weiter Weg.  Was KI (meist eher einfaches maschinelles Lernen) aber kann: Schon bei simplen Dingen für Chaos sorgen.
Die Gelegenheiten dazu sind reichlich.
KI ist schließlich schon an vielen Stellen mit im Spiel:

  • So nutzen Marken und Händler KI, um ihren Kunden personalisierte Empfehlungen zu geben, indem die Maschinen Daten interpretieren, um Kunden-Muster zu identifizieren.
  • Chat-Bots simulieren  „intelligente“ Konversationen, eigentlich eher rudimentäre Frage- und Antwortfunktionen, und sollen so das Kundenerlebnis und den Service bereichern. Ziel sind Bots, die Sprache und Emotionen im Dialog interpretieren.  
  • „Intelligente“ Assistenten wie Alexa  sollen Kunden bei Fragen helfen, die Bestellung von Lebensmitteln und Mode per Sprachsteuerung  übernehmen und den Allltag erleichtern, beispielsweise wenn sie auf Zuruf das Licht aus machen. Da redet dann die KI mit dem Internet der Dinge, IoT.
  • Im Internet der Dinge wird dann das Gerät zum Selbstbedienungsladen, wenn sich der Drucker den neuen Toner selbst bestellt.
  • Im Hintergrund wirkt KI im Handel schon vor allem in der Automatisierung und beim Pricing.

Aber wenn man die KI unbewacht drauflosplappern lässt, kann das fatal enden. So erging es gerade Adidas.

Adidas baut einen Antisemiten

Das ist passiert: Adidas ermunterte die Nutzer, den Hashtag #DareToCreate zu twittern, der dann, Künstliche Intelligenz sei Dank, über den Adidas-Account ein Foto des neuen Trikots zeigte, samt Twitter-Namen der Nutzer. Das aber missbrauchten Nutzer mit Namen wie @GasAllJewss" oder "Unschuldiger Hitler". Adidas entschuldigte sich und stoppte die Aktion.
 Screenshot von einem der rassistischen Tweets
© twitter/adidas
Screenshot von einem der rassistischen Tweets

Die Rassisten-KI von Microsoft

Auch ein selbstlernendes Chatprogramm von Microsoft benahm sich einst daneben. Tay sollte lernen wie Teenager reden und zwanglose und spielerische Gespräche auf Twitter führen. Doch Nutzer fluteten den Bot mit rassistischen, frauenfeindlichen und antisemitischen Tweets – der sich dadurch völlig daneben benahm. Microsoft schaltete Tay schleunigst ab.

Facebook-Bots entwickeln Geheimsprache

Facebook musste seine Chatbots "Bob" und "Alice“ abschalten, als das Duo anfing, in ihrer eigenen Sprache zu kommunizieren und sich den von Menschen erzeugten Algorithmen zu widersetzen.
Tay von Microsoft war anfällig für suggestive Tweets.
© Microsoft
Tay von Microsoft war anfällig für suggestive Tweets.

Alexa verhört sich

Legendär ist die Alexa-Panne bei der Amazons Echo in den USA unfreiwillige Puppenhaus-Bestellungen auslöste, weil ein Nachrichtensprecher zur Reportage über ein kleines Mädchen sagte: "Ich liebe dieses kleine Mädchen, wie sie sagt 'Alexa hat mir ein Puppenhaus bestellt'".

Alexa kauft selbstständig Puppenhaus

Fast schon harmlos waren dagegen spontane Lacher des Sprachassistentin, die etliche Nutzer gruseln ließen. Alexa dachte, es hätte „Alexa  lache“ gehört. 

Polizeieinsatz dank Alexa

Aus der Reihe „Immer Ärger mit Alexa“ stammt auch der deutsche Polizeieinsatz in einer Novembernacht. Die drang in eine Wohnung ein, nachdem die Nachbarn laute Musik gemeldet hatten. Die Ursache? Keine Party, sondern ein Amazon Echo, das zufällig Musik machte, während der Bewohner nicht da war. Nicht immer aber ist Alexa verantwortlich. Manchmal ist auch einfach der Papagei ganz smart.

Papagei bestellt via Amazon Echo

Die Macho-KI

Ein KI-Programm von Amazon für die Einstellung neuer Mitarbeiter fiel unangenehm auf, weil das System männliche Kandidaten gegenüber Frauen bevorzugte.
Letztlich aber ist der Begriff Künstliche Intelligenz für all diese Dinge weit übertrieben. Es sind - manchmal - clevere Algorithmen und lernende Maschinen mit  von Menschen programmierten  Handlungsrezepten, die mehr  - oder eben weniger gut und lückenhaft – zusammengeschrieben wurden.

MEHR ZUM THEMA:

Roboter des Max-Planck-Institut für Intelligente Systeme in Tübingen
© Max-Planck-Institut
Künstliche Intelligenz

Schluss mit dem Buzzword-Bingo zu KI im Handel


Der erste Hype rund um das Thema Chatbots scheint vorbei. Braucht der Handel die Quasselstrippen noch, oder ist Spracherkennung der nächste Trend?
© sdecoret - fotolia.com
Marketing

Braucht der Handel wirklich Chatbots?


Beklemmende Zukunftsvision: In Logistikpatenten von Amazon verschwimmen die Grenzen zwischen Mensch und Maschine immer mehr.
© Fotolia.com - psychoshadow
Innovationen

Von Menschenkäfigen und Abhörpatenten: die 5 gruseligsten Amazon-Ideen