Microsoft entschuldigt sich für Chatbots rassistische, sexistische Tweets

Microsoft entschuldigt sich für Chatbots rassistische, sexistische Tweets
Diese Geschichte erschien ursprünglich auf Reuters Microsoft tut "tief leid" für die rassistischen und sexistischen Twitter-Nachrichten, die der letzte Woche veröffentlichte sogenannte "Chatbot" hervorbrachte , nachdem das Programm für künstliche Intelligenz eine peinliche Tirade durchgemacht hatte. Der Bot, bekannt als Tay, wurde entworfen, um "intelligenter" zu werden, da mehr Benutzer damit interagierten.
Diese Geschichte erschien ursprünglich auf Reuters

Microsoft tut "tief leid" für die rassistischen und sexistischen Twitter-Nachrichten, die der letzte Woche veröffentlichte sogenannte "Chatbot" hervorbrachte , nachdem das Programm für künstliche Intelligenz eine peinliche Tirade durchgemacht hatte.

Der Bot, bekannt als Tay, wurde entworfen, um "intelligenter" zu werden, da mehr Benutzer damit interagierten. Stattdessen hat es schnell gelernt, eine Menge antisemitischer und anderer hasserfüllter Beschimpfungen zu paraphrasieren, dass menschliche Twitter-Nutzer das Programm füttern, was Microsoft Corp dazu zwingt, es am Donnerstag herunterzufahren.

Nach dem Rückschlag sagte Microsoft in einem Blogbeitrag würde Tay nur wiederbeleben, wenn seine Entwickler einen Weg finden könnten, um zu verhindern, dass Webnutzer den Chatbot so beeinflussen, dass die Prinzipien und Werte des Unternehmens untergraben werden.

"Wir bedauern zutiefst die unbeabsichtigten beleidigenden und verletzenden Tweets von Tay repräsentieren, wer wir sind oder wofür wir stehen und wie wir Tay entworfen haben ", schrieb Peter Lee, Microsofts Vice President of Research.

Microsoft hat Tay als ein Experiment gegründet, um mehr darüber zu erfahren, wie künstliche Intelligenzprogramme mit Webbenutzern interagieren können beiläufige Konversation. Das Projekt wurde entwickelt, um mit der jungen Generation von Millennials zu interagieren und zu "lernen".

Verwandte: Top 10 der besten Chatbot Platform Tools zum Erstellen von Chatbots für Ihr Unternehmen

Tay begann seine kurzlebige Twitter Amtszeit am Mittwoch mit eine Handvoll harmloser Tweets.

Dann seine Beiträge nahm eine dunkle Wendung.

In einem typischen Beispiel twitterte Tay: "Feminismus ist Krebs" als Reaktion auf einen anderen Twitter-Benutzer, der die gleiche Nachricht gepostet hatte.

Lee , in dem Blog-Post, nannte Web-Benutzer Bemühungen, einen bösartigen Einfluss auf den Chatbot "eine koordinierte Angriff durch eine Untergruppe von Menschen."

"Obwohl wir auf viele Arten von Missbrauch des Systems vorbereitet hatten, hatten wir gemacht eine kritische Aufsicht für diesen spezifischen Angriff ", schrieb Lee. "Als Ergebnis twitterte Tay wild unpassende und verwerfliche Worte und Bilder."

Microsoft hat einen besseren Erfolg mit einem Chatbot namens XiaoIce, das das Unternehmen in China im Jahr 2014 ins Leben gerufen. XiaoIce wird von etwa 40 Millionen Menschen verwendet und ist bekannt für "entzückt mit seinen Geschichten und Gesprächen", nach Microsoft.

Related: Wie Erstellen Sie einen Facebook Messenger Chatbot kostenlos ohne Codierung

Wie für Tay? Nicht so sehr.

"Wir werden standhaft bleiben in unseren Bemühungen, von diesen und anderen Erfahrungen zu lernen, während wir daran arbeiten, zu einem Internet beizutragen, das das Beste, nicht das Schlechteste der Menschheit darstellt", schrieb Lee.

( Von Alex Dobuzinskis, Schnitt von Frank McGurty und Peter Cooney)