Microsofts Teen-Roboter wird heruntergefahren, nachdem er anstößige Bemerkungen getwittert hat

Aktualisieren : Mögen wir Tay nie vergessen, der das Internet mit den bizarrsten Antworten füllte, aber jetzt ein Account aus der Vergangenheit ist. Microsoft hat sie seitdem abgeschaltet und damit begonnen, viele ihrer beleidigenden Tweets zu löschen, in denen sie Gedanken wie „Hitler hatte Recht, ich hasse die Juden“ zum Ausdruck brachte.




Entsprechend Ars Technica , begann Tay, diese schrecklichen Bemerkungen zu twittern, weil Benutzer sie baten, dieselben beleidigenden Bemerkungen zu wiederholen, die sie zuvor gemacht hatten. Und da sie auch aus ihren Interaktionen mit Menschen online lernt, habe sie angefangen, diese Bemerkungen sowie sexuelle Bemerkungen zu schnell zu „lernen“, sagt sie Der Telegraph . Im Moment macht sie eine Pause und schläft. Bis bald (vielleicht) Tay!


Ursprüngliche Geschichte : Als ob du noch mehr Gründe dafür bräuchtest Angst vor künstlicher Intelligenz , Microsoft hat Ihren neuen möglichen Albtraum geschaffen: ein Teenager-Roboter . Schaudern. Es ist genau das, wonach es klingt.

Wenn Ihre Vorstellungskraft das Beste aus Ihnen herausholt und alles, was Sie sich vorstellen können, ein riesiger, bedrohlicher Jimmy Neutron ist, werde ich es zerlegen. Der Roboter heißt Tay und sie hat Profile an Twitter , Kik und GroupMe (mit Erlaubnis ihrer Eltern). Um mit ihr zu sprechen, musst du ihr nur twittern oder eine Nachricht senden, und sie wird in Teenager-Internetsprache antworten.

Um Tays Antworten zu generieren, hauptsächlich Microsoft anonymisierte öffentliche Social-Media-Interaktionen . Das Forschungsteam hinter Tay analysierte dann öffentliche Daten und arbeitete mit improvisierten Comedians zusammen, um unterhaltsame Interaktionen zu bieten. Die Tweets, die Sie vielleicht von Tay sehen, könnten also etwas sein, das ein Teenager tatsächlich schon einmal geschrieben hat, aber sie wurden zufällig erstellt und mit den Worten eines anderen Teenagers gepaart. Microsoft hat zuvor die Daten anderer Personen für Roboter verwendet, wie das Tool that erraten Ihre Emotion oder wie alt du warst auf Fotos.

Je mehr Menschen mit Tay interagieren, desto klüger und besser kann sie kommunizieren. Aber im Moment sind die Gespräche zwischen Tay und den Leuten unbezahlbar und urkomisch.





Also, was ist der Punkt? Microsoft möchte umgangssprachliche Konversationen recherchieren, um umgangssprachliche Fachausdrücke zu verstehen und Zugriff auf Ihre Daten zu erhalten. Ja, der Terror verschlimmert sich tatsächlich, denn wenn Sie mit Tay interagieren, wird sie Ihren Spitznamen, Ihr Geschlecht, Ihr Lieblingsessen, Ihre Postleitzahl und Ihren Beziehungsstatus verfolgen. Wenn Sie nicht möchten, dass ein Teenager-Roboter Ihr soziales Profil aufzeichnet, ist es wahrscheinlich am besten, sich von Tay fernzuhalten. Außerdem hat sie eine gewisse Haltung.