Entwicklung von Killer-Robotern: Spitzenforscher fordern Boykott südkoreanischer Elite-Universität

Entwicklung von Killer-Robotern: Spitzenforscher fordern Boykott südkoreanischer Elite-Universität
Ein sogenannter "Terminator" aus der gleichnamigen Filmserie.
Mehr als 50 internationale Forscher haben am Mittwoch den Boykott einer sükoreanischen Universität angekündigt. Die Forscher werfen der Hochschule vor, zusammen mit einer Rüstungsfirma autonome Waffensysteme entwickeln zu wollen. Die Universität weist die Vorwürfe zurück.

Die Forscher, die in 30 Ländern ansässig sind, erklärten, sie würden von einem Besuch der südkoreanischen Universität (bekannt als KAIST), die Besucher beherbergt und mit ihren Forschungsprogrammen kooperiert, Abstand nehmen. Gleichzeitig verlangten die Forscher ein Versprechen der Hochschule, keine KI-Waffen ohne "sinnvolle menschliche Kontrolle" zu entwickeln.

MQ-9 Reaper Drohne

Die Forscher schrieben in einem Offenen Brief in Bezug auf sogenannte "Killerroboter" unter anderem:

Wenn sie entwickelt werden, werden autonome Waffen es ermöglichen, den Krieg schneller und in einem Ausmaß zu führen, das größer ist als je zuvor. Sie werden das Potenzial haben, Waffen des Terrors zu sein.

Sie wiesen zudem auf wirksame Verbote bestehender Waffentechnologien hin und forderte KAIST auf, jegliche Arbeit an tödlichen autonomen Waffen zu verbieten und von KI-Verwendungen abzusehen, die Menschenleben schädigen würden.

Der Brief wurde vor dem Treffen am kommenden Montag in Genf von 123 UN-Mitgliedsstaaten über die Herausforderungen durch tödliche autonome Waffen veröffentlicht, die Kritiker als "Killerroboter" bezeichnen.

Auslöser für den Boykott war die Ankündigung der Universität, zusammen mit dem größten südkoreanischen Rüstungsunternehmen Hanwha Systems ein gemeinsamen Forschungsprojekt zu betreiben. Wie The Korean Times schrieb, sei es das Ziel der Zusammenarbeit, "Technologien der künstlichen Intelligenz (KI) für militärische Waffen zu entwickeln", die "Ziele ohne menschliche Kontrolle suchen und eliminieren".

Der Rüstungskonzern Hanwha Defense Systems wurde im Jahr 1937 gegründet und ist seit dem Jahr 1973 auf die Rüstungsindustrie spezialisiert. Das Unternehmen ist bekannt für die Herstellung von Truppentransportern und gepanzerten Fahrzeugen. Ist aber auch in den Bereichen wie Flugabwehr- und Trägersysteme, Lenkwaffen, hochpräzise Navigationsgeräte und Laserwaffen aktiv.

CC BY-SA 2.0/Daniel Juřena/Terminator

Die Hochschule reagierte umgehend auf den Boykott-Aufruf. Universitätspräsident Sung-Chul Shin verwehrte sich gegen die Vorwürfe und sagte, das Labor habe "keine Absicht, sich an der Entwicklung tödlicher autonomer Waffensysteme und Killerroboter zu beteiligen“.

Die Universität sei sich der ethischen Bedenken bezüglich der Künstlichen Intelligenz "deutlich bewusst“. Und er ergänzte:

Ich bekräftige noch einmal, dass KAIST keine Forschungsaktivitäten durchführen wird, die der Menschenwürde zuwiderlaufen, einschließlich autonomer Waffen ohne sinnvolle menschliche Kontrolle.

Das neue Forschungszentrum für die Konvergenz von Landesverteidigung und Künstlicher Intelligenz beschränke sich auf: Führungssysteme, Navigation für große unbemannte Unterwasserfahrzeuge, Intelligente Flugzeugschulung und -verfolgung sowie auf die Erkennung von Objekten.

Doch das überzeugt die Kritiker offenbar nicht. Toby Walsh, Professor an der University of New South Wales in Sydney, der den Boykott organisierte, erklärte:

KAIST hat zwei bedeutende Zugeständnisse gemacht: keine autonomen Waffen zu entwickeln und eine sinnvolle menschliche Kontrolle zu gewährleisten.

Doch es sei weiterhin unklar, wie man eine sinnvolle menschliche Kontrolle über ein unbemanntes U-Boot, eines der Startprojekte des Labors, herstellen könne, wenn es unter Wasser sei und nicht kommunizieren könne. Walsh betonte, es gäbe viele gute Einsatzmöglichkeiten von Robotik und Künstlicher Intelligenz im Militär, einschließlich der Entfernung von Menschen von gefährlichen Aufgaben wie dem Räumen von Minenfeldern.

"Aber wir sollten die Entscheidung, wer lebt oder stirbt, nicht einer Maschine überlassen. Das überschreitet eine klare moralische Grenze", sagte der Forscher.