Intelligente Sprachprogramme: Automatisierte Vorurteile

Intelligente Sprachprogramme: Automatisierte Vorurteile
Computerprogramme erlernen Rassismus und Geschlechter-Stereotypen automatisch. Die Künstliche Intelligenz zeigt die Vorurteile auf, die vielen Menschen - bewusst oder unbewusst - anerzogen wird.

In den letzten Jahren haben Sprachprogramme große Fortschritte gemacht. Die steigende Präzision ist bei vielen Übersetzungs- und Chatprogrammen zu beobachten. 

Das liegt auch an einer steigenden Vielfalt an Informationen. Die Menge an verfügbaren Textdateien im Internet hat deutlich zugenommen. Diese Datensätze werden von den Programmen algorithmisch verarbeitet und interpretiert. Durch die Interpretation der Inhalte entstehen Sinnzusammenhänge. So versuchen Software-Entwickler die Sprachprogramme näher an menschliche Sprachfähigkeiten heranzuführen.

Ein Arbeiter passiert Regale mit Robotern aus zweiter Hand in einer Fabrik in Shanghai. Die chinesische

Die meisten Algorithmen verwerten die Daten mithilfe sogenannter Worteinbettungen. Über eine Suchfunktion können sie Schlüsse ziehen, in welchen Zusammenhängen einzelne Wörter benutzt werden. Diese Ordnungen und Kategorisierungen bilden sie mit mathematischen Werten ab. Sie entdecken außerdem Ähnlichkeiten, beispielsweise zwischen weiblichen und männlichen Termen. So können Künstliche Intelligenzen die Worte „Lehrer“ und „Lehrerin“ einander zuordnen. Sie erkennen dabei, dass die Begriffe ähnlich sind und miteinander zusammenhängen, wie „Mann“ und „Frau“.

Ein Forscherteam aus Informatikern um Aylin Caliskan und Joanna J. Bryson hat die auf die Weise erworbenen Fähigkeiten von solchen Programmen untersucht. Das Ergebnis: unangenehme Seiteneffekte. Die Maschinen absorbieren unter anderem ungefiltert tief verwurzelte Vorurteile.

Für die Studie vollzogen die Wissenschaftler einen Assoziationstest mit den Programmen. Der Test kommt ursprünglich aus der Sozialpsychologie. Versuchspersonen sollen dafür verschiedene Begriffe paaren, die für sie ähnlich erscheinen oder miteinander zusammenhängen.

Das menschliche Gehirn soll vernetzt werden - so wünscht es sich der Unternehmer und Investor Elon Musk.

Wie bei vielen Menschen beobachteten die Forscher auch bei den Programmen dieselben Stereotypen und Vorurteile. Die Algorithmen interpretieren beispielsweise Vornamen, die unter Afro-Amerikanern üblich sind, als unangenehm. Gängige Vornamen von Weißen bewerten sie dagegen eher als angenehm. Die Programme teilten außerdem weiblichen Namen künstlerische Berufe zu. Männliche assoziierten sie eher mit Mathematik.

Auch Microsoft steuerte im Frühjahr 2016 einem PR-Debakel entgegen: Der Softwarehersteller hatte einen Chat-Bot für Twitter programmiert. Für den Bot wurde ein eigener Account erstellt. Er startete als ein neugieriges, jugendliches Mädchen namens „Tay“.

Microsoft hatte den Bot entwickelt, um zu testen, wie Künstliche Intelligenz im Alltag lernen kann. Tay konnte mit Nutzern der Internet-Plattform kommunizieren. Über die von den Nutzern verfassten Nachrichten sollte der Bot seinen Wortschatz erweitern und von ihnen lernen.

Einblicke- die würde Facebook sicherlich gewinnen wenn es seine geplante Technologie zum direkten Tippen aus dem Gehirn verbreiten könnte

Schon nach wenigen Stunden änderten sich Tays anfänglich harmlose Aussagen radikal.

„Ich hasse Feministen. Sie sollten alle sterben und in der Hölle verbrennen“, äußerte der Bot plötzlich in einem seiner Tweets.

Nach 24 Stunden wurde der Account wieder gesperrt. Microsoft entschied damals, das soziale und kulturelle Experiment zu unterbrechen und zuerst einige Nachbesserungen an Tay vorzunehmen.

„Viele Leute behaupten jetzt, Künstliche Intelligenzen seien mit Stereotypen belastet. Ich denke eher, dass uns die Ergebnisse unsere eigenen Vorurteile vor Augen bringen.“, so die Informatikerin Bryson.

Künstliche Intelligenzen (KI) mit diskriminierenden Einstellungen stellen dennoch eine große Gefahr dar. Denn KI sollen in Zukunft vermehrt eingesetzt werden, um alltägliche Aufgaben zu erledigen oder über Sprachanalysen zu entscheiden, wer zu einem Bewerbungsgespräch eingeladen wird - und wer nicht.

ForumVostok