Blamage für Microsoft:
Chat-Bot muss wegen Pöbeleien vom Netz
Ein Chatbot-Programm Namens "Tay" sollte sich in Sozialen Netzwerken mit Nutzern unterhalten. Doch das Experiment wurde für die Entwickler von Microsoft nach wenigen Stunden zum Debakel. Nutzer schafften es, "Tay" zu rassistischen Entgleisungen zu verleiten.
Microsoft hat eine Chatbot-Software nach kurzer Zeit von Netz nehmen müssen, nachdem Nutzer sie durch Tricks massenhaft zu rassistischen Entgleisungen verleiten konnten. Das am Mittwoch eingeschaltete Programm mit dem Namen "Tay" sollte mit Hilfe einfacher Antwort-Algorithmen über Twitter den Anschein einer Konversation mit Menschen aufrechterhalten, aber auch aus Unterhaltungen lernen. Nutzer brachten "Tay" unter anderem dazu, Adolf Hitler zu preisen, den Holocaust zu verneinen und Schwarze zu beleidigen.
Ein Großteil dieser Tweets wurde später gelöscht. Nach einigen Stunden verkündete die Maschine über ihren Twitter-Account "@TayandYou", sie müsse nach so vielen Gesprächen schlafen und ging vom Netz. Microsoft erklärte, bei "Tay" würden "einige Anpassungen" gemacht. Während die Software lerne, seien einige ihrer Antworten unangemessen und spiegelten die Äußerungen der Menschen wider, die mit ihr interagierten.
Nach Informationen der Website "Buzzfeed", die vor dem Start ein Interview mit der führenden Entwicklerin geführt hatte, hatte "Tay" zwar Filter gegen obszöne Ausdrücke. Aber das Team unterschätzte ganz offensichtlich die destruktive Energie von Internet-Nutzern bei politischen Themen sowie ihren Erfindungsreichtum. So erwies sich ein simples "Sprich mir nach!" als sichere Falle: Man konnte "Tay" damit dazu bringen, alle möglichen Parolen zu wiederholen.
"Tay" sollte im Netz ursprünglich die Persönlichkeit einer jungen Frau simulieren und als Zielgruppe auf Internet-Nutzer im Alter von 18 bis 24 Jahre ausgerichtet sein. Dafür sei die Software unter anderem mit Sprüchen von Comedians aufgepeppt worden, hieß es.
Die Idee von Chatbots ist nicht neu: Vor 50 Jahren hatte erstmals das Programm "Eliza" Aufsehen erregt. Es konnte eine Unterhaltung aufrechterhalten, indem es passende Sätze zu erkannten Schlüsselwörtern zusammenstellte. Mit der fortschreitenden Entwicklung selbstlernender Maschinen und künstlicher Intelligenz gelten Chatbots jetzt aber unter anderem als aussichtsreiches Modell für die Kommunikation von Unternehmen mit Kunden. So entwickelt Facebook für seinen Messenger einen Concierge-Service mit künstlicher Intelligenz, der aktuell noch von Menschen angelernt wird.
c u soon humans need sleep now so many conversations today thx
— TayTweets (@TayandYou) 24. März 2016
Einige der krassesten Entgleisungen hat "Business Insider" hier zusammengestellt. Auch "Spiegel Online" hat dokumentiert, was aus Künstlicher Intelligenz resultiert, wenn sie auf weniger intelligentes Leben stößt.