Künstliche Intelligenz: MIT programmiert Algorithmus zum Psychopathen

Künstliche Intelligenz: MIT programmiert Algorithmus zum Psychopathen
Das Massachusetts Institute of Technology ist eine Technische Hochschule und Universität in Cambridge, Massachusetts, in den USA. Die Hochschule liegt am Charles River in Cambridge, direkt gegenüber von Boston und stromabwärts von der Harvard University. Es wurde 1861 gegründet.
Das Massachusetts Institute of Technology (MIT) hat jüngst in einem Experiment einen Algorithmus bewusst verstörenden Bildern und Inhalten ausgesetzt, die mit Tod und Verderben zu tun hatten. Anschließend hat man "Norman" einem Rorschach-Test unterzogen.

Zwei Jahre, nachdem Microsoft nach nur wenigen Stunden den intelligenten Chatbot "Tay" abschalten wusste, weil dieser unter dem Einfluss von Twitter-Usern begann, extremistische Inhalte zu verbreiten, hat das Massachusetts Institute of Technology (MIT) im Rahmen eines eigenen Experiments einen Algorithmus erschaffen, um dessen Reaktion auf negative Eindrücke und Einflüsse aus dem Internet zu testen. Dies berichtete unter anderem die BBC.

Der bezeichnende Name für den Algorithmus, dem auf diesem Wege Bildverständnis antrainiert werden sollte, ist Norman - wie der Hauptprotagonist in Alfred Hitchcocks Thriller-Klassiker "Psycho" oder in der davon inspirierten Serie "Bates Motel".

Mehr erfahren -  KI kann vorhersagen, wann genau Online-Proteste auf Twitter in echte Gewalt umschlagen

Der Algorithmus Norman lernt die Welt nicht wie andere durch Künstliche Intelligenz generierte Algorithmen durch fröhliche oder neutrale Eindrücke kennen. Keine frei verfügbaren Google-Bilderserien über Katzen, Kinder oder Vögeln waren seine Lernbehelfe, sondern eine Reddit-Untergruppe, die Aufnahmen grausamer Todesfälle, Katastrophen-Nachrichten und sonstige verstörende Bilder zeigte.

Wie Norman darauf reagieren würde, sollte in weiterer Folge eine Serie von Bildern zeigen, wie sie in der Psychologie im Rahmen des bekannten Rorschach-Tests verwendet werden.

Hochzeitstorte oder Überreste eines Unfallopfers?

Und tatsächlich wich das, was Algorithmus Norman in den Klecksen erkennen wollte, erheblich von dem ab, was Algorithmen zu erkennen meinten, die zuvor unverfänglichere Eindrücke vermittelt bekommen hatten.

Wo andere Formen der Künstlichen Intelligenz beispielsweise Regenschirme in verschiedenen Farben erkannt haben wollen, sah Norman einen Mann, dem ein Stoß mit dem Elektroschocker verpasst wird. Was für andere die Nahaufnahme einer Hochzeitstorte darstellen sollten, waren für Norman die Überreste eines Menschen, den ein Raser im Straßenverkehr überrollt hatte. Ein aus Sicht anderer Algorithmen harmloses Paar, das nebeneinandersteht, wird bei Norman zu einem Mann, der aus einem Fenster springt.

Lesen Sie auch -  Neue KI hört auch in der Menge mit: Google entwickelt neuen Mechanismus zur Spracherkennung

Dass Normans Antworten auf die ihm vorgelegten Fragen ein so düsteres Blatt in der Geschichte des Lernprozesses bei Maschinen zeichneten, überrascht Professor Iyad Rahwan, der Teil des dreiköpfigen Ermittlerteams [no pun intended] Normans war, wenig. Das Experiment zu der Frage, wie sich ein Training an KI-Mechanismen mit Daten aus den "dunkelsten Ecken des Internets" auf deren Weltbild auswirke, zeigt ihm zufolge:

Daten sind bedeutender als der Algorithmus. […] Das unterstreicht die Richtigkeit unserer Annahme, dass die Daten, die wir benutzen, um die Künstliche Intelligenz zu trainieren, sich in der Wahrnehmung der Welt durch die KI niederschlagen und in der Art ihres Verhaltens.

Wie lässt sich das Anerziehen eines Bias bei Künstlicher Intelligenz verhindern?

In einer Zeit, in der Künstliche Intelligenz bereits in Bereichen wie telefonischem Kundenservice, Spielecomputern, digitaler Assistenz, E-Mail-Filtern, Gesichts- und Stimmwiedererkennung, aber auch Inhaltserkennung eingesetzt wird, werden die Funktionen und Einsatzmöglichkeiten der KI immer breiter.

Auch interessant -  Künstliche Intelligenz soll US-Schulen das Aufspüren gefährlicher Schüler ermöglichen

Kritiker meinen jedoch - und das Norman-Experiment könnte sie in ihrer Vorstellung bestärken -, dass eine willkürliche und einseitige Fütterung mit Datenmaterial auch zu einseitigen und unausgewogenen Folgerungen aufseiten des KI-Algorithmus führen könnte. Die Microsoft-Pleite mit "Tay" steht immer noch als abschreckendes Beispiel im Raum.

Prof. Rahwan meint, sein Experiment mit Norman beweise, dass "Ingenieure auf irgendeine Weise einen Weg finden müssen, Daten auszubalancieren". Die stetig wachsende und wichtige Welt des Anlernens von Maschinen könne nicht den Programmierern alleine überlassen werden.

Diese Webseite verwendet Cookies. Klicken Sie hier, um mehr zu erfahren

Cookies zulassen