Rassistische Entgleisungen: Chatbot blamiert Microsoft

3
26
Bild: © Victoria - Fotolia.com
Bild: © Victoria - Fotolia.com

Ein Chatbot-Programm Namens „Tay“ sollte sich in Sozialen Netzwerken mit Nutzern unterhalten. Doch das Experiment wurde für die Entwickler von Microsoft nach wenigen Stunden zum Debakel.

Microsoft hat eine Chatbot-Software nach kurzer Zeit von Netz nehmen müssen, nachdem Nutzer sie durch Tricks massenhaft zu rassistischen Entgleisungen verleiten konnten. Das am Mittwoch eingeschaltete Programm mit dem Namen „Tay“ sollte mit Hilfe einfacher Antwort-Algorithmen über Twitter den Anschein einer Konversation mit Menschen aufrechterhalten, aber auch aus Unterhaltungen lernen. Nutzer brachten „Tay“ unter anderem dazu, Adolf Hitler zu preisen, den Holocaust zu verneinen und Schwarze zu beleidigen.
 
Ein Großteil dieser Tweets wurde später gelöscht. Nach einigen Stunden verkündete die Maschine über ihren Twitter-Account „@TayandYou“, sie müsse nach so vielen Gesprächen schlafen und ging vom Netz. Microsoft erklärte, bei „Tay“ würden „einige Anpassungen“ gemacht. Während die Software lerne, seien einige ihrer Antworten unangemessen und spiegelten die Äußerungen der Menschen wider, die mit ihr interagierten.

Nach Informationen der Website „Buzzfeed“, die vor dem Start ein Interview mit der führenden Entwicklerin geführt hatte, hatte „Tay“ zwar Filter gegen obszöne Ausdrücke. Aber das Team unterschätzte ganz offensichtlich die destruktive Energie von Internet-Nutzern bei politischen Themen sowie ihren Erfindungsreichtum. So erwies sich ein simples „Sprich mir nach!“ als sichere Falle: Man konnte „Tay“ damit dazu bringen, alle möglichen Parolen zu wiederholen.
 
„Tay“ sollte im Netz ursprünglich die Persönlichkeit einer jungen Frau simulieren und als Zielgruppe auf Internet-Nutzer im Alter von 18 bis 24 Jahre ausgerichtet sein. Dafür sei die Software unter anderem mit Sprüchen von Comedians aufgepeppt worden, hieß es.
 
Die Idee von Chatbots ist nicht neu: Vor 50 Jahren hatte erstmals das Programm „Eliza“ Aufsehen erregt. Es konnte eine Unterhaltung aufrechterhalten, indem es passende Sätze zu erkannten Schlüsselwörtern zusammenstellte. Mit der fortschreitenden Entwicklung selbstlernender Maschinen und künstlicher Intelligenz gelten Chatbots jetzt aber unter anderem als aussichtsreiches Modell für die Kommunikation von Unternehmen mit Kunden. So entwickelt Facebook für seinen Messenger einen Concierge-Service mit künstlicher Intelligenz, der aktuell noch von Menschen angelernt wird. [dpa]

Bildquelle:

  • Technik_Web_Artikelbild: © Victoria - Fotolia.com

3 Kommentare im Forum

  1. :ROFLMAO: Weshalb fällt mir jetzt das Zitat "Wehret den Anfängen!" ein? Von der Entwicklung sogenannter "künstlicher Intelligenz" sollten wir lieber die Finger lassen. Gruß Holz (y)
  2. Nun ob der Chatbot unbedingt Microsoft blamiert? Im Prinzip ist das gute Stück ja nur ein Spiegel der Twittercommunity. Der würde sich in so manchen Chats, Foren noch viel schneller so entwickeln. Da kann man MS keinen Vorwurf machen. Wenn man nur Scheiße reinkippt passiert das halt.
Alle Kommentare 3 im Forum anzeigen

Kommentieren Sie den Artikel im Forum