Eine mit ein bisschen Künstliche Intelligenz gesteuerte Twitter-Kampagne von Adidas ging im Sommer mächtig nach hinten los. Es war nicht der erste Fall in der Handels- und Markenwelt, bei dem KI für eine spektakuläre Peinlichkeit sorgte. Erinnern Sie sich?
KI ist schließlich schon an vielen Stellen mit im Spiel:
- So nutzen Marken und Händler KI, um ihren Kunden personalisierte Empfehlungen zu geben, indem die Maschinen Daten interpretieren, um Kunden-Muster zu identifizieren.
- Chat-Bots simulieren „intelligente“ Konversationen, eigentlich eher rudimentäre Frage- und Antwortfunktionen, und sollen so das Kundenerlebnis und den Service bereichern. Ziel sind Bots, die Sprache und Emotionen im Dialog interpretieren.
- „Intelligente“ Assistenten wie Alexa sollen Kunden bei Fragen helfen, die Bestellung von Lebensmitteln und Mode per Sprachsteuerung übernehmen und den Allltag erleichtern, beispielsweise wenn sie auf Zuruf das Licht aus machen. Da redet dann die KI mit dem Internet der Dinge, IoT.
- Im Internet der Dinge wird dann das Gerät zum Selbstbedienungsladen, wenn sich der Drucker den neuen Toner selbst bestellt.
- Im Hintergrund wirkt KI im Handel schon vor allem in der Automatisierung und beim Pricing.
Aber wenn man die KI unbewacht drauflosplappern lässt, kann das fatal enden.
Adidas baut einen Antisemiten
Das ist passiert: Adidas ermunterte die Nutzer, den Hashtag #DareToCreate zu twittern, der dann, Künstliche Intelligenz sei Dank, über den Adidas-Account ein Foto des neuen Trikots zeigte, samt Twitter-Namen der Nutzer. Das aber missbrauchten Nutzer mit Namen wie @GasAllJewss" oder "Unschuldiger Hitler". Adidas entschuldigte sich und stoppte die Aktion.
Die Rassisten-KI von Microsoft
Auch ein selbstlernendes Chatprogramm von Microsoft benahm sich einst daneben. Tay sollte lernen wie Teenager reden und zwanglose und spielerische Gespräche auf Twitter führen. Doch Nutzer fluteten den Bot mit rassistischen, frauenfeindlichen und antisemitischen Tweets – der sich dadurch völlig daneben benahm. Microsoft schaltete Tay schleunigst ab.Facebook-Bots entwickeln Geheimsprache
Facebook musste seine Chatbots "Bob" und "Alice“ abschalten, als das Duo anfing, in ihrer eigenen Sprache zu kommunizieren und sich den von Menschen erzeugten Algorithmen zu widersetzen.
Alexa verhört sich
Legendär ist die Alexa-Panne bei der Amazons Echo in den USA unfreiwillige Puppenhaus-Bestellungen auslöste, weil ein Nachrichtensprecher zur Reportage über ein kleines Mädchen sagte: "Ich liebe dieses kleine Mädchen, wie sie sagt 'Alexa hat mir ein Puppenhaus bestellt'".Alexa kauft selbstständig Puppenhaus
Polizeieinsatz dank Alexa
Aus der Reihe „Immer Ärger mit Alexa“ stammt auch der deutsche Polizeieinsatz in einer Novembernacht. Die drang in eine Wohnung ein, nachdem die Nachbarn laute Musik gemeldet hatten. Die Ursache? Keine Party, sondern ein Amazon Echo, das zufällig Musik machte, während der Bewohner nicht da war. Nicht immer aber ist Alexa verantwortlich. Manchmal ist auch einfach der Papagei ganz smart.Papagei bestellt via Amazon Echo
Die Macho-KI
Ein KI-Programm von Amazon für die Einstellung neuer Mitarbeiter fiel unangenehm auf, weil das System männliche Kandidaten gegenüber Frauen bevorzugte.Letztlich aber ist der Begriff Künstliche Intelligenz für all diese Dinge weit übertrieben. Es sind - manchmal - clevere Algorithmen und lernende Maschinen mit von Menschen programmierten Handlungsrezepten, die mehr - oder eben weniger gut und lückenhaft – zusammengeschrieben wurden.