Zukunft der Kastastrophenhilfe
«In ein paar Jahren verwendet die Armee KI-Systeme»

Militärische Roboter werden die Kriegsführung revolutionieren. Die Schweiz will sich gegen die neue Gefahr schützen – und forscht an Robotern für die Katastrophenhilfe. Doch die Herausforderungen sind enorm.
Publiziert: 22.07.2023 um 02:02 Uhr
|
Aktualisiert: 23.07.2023 um 14:02 Uhr
RMS_Portrait_135 (1).jpg
Robin BäniRedaktor

Tötungsmaschinen wie im Film «Terminator» sind eine reale Bedrohung. Eine Person kann Tausende Killer-Roboter befehligen. Und so ähnliche Effekte erzielen wie mit einer Massenvernichtungswaffe. Nicht ohne Grund hat die Armee 2017 das Schweizer Drohnen- und Robotik-Zentrum (SDRZ) geschaffen. Die Abteilung soll untersuchen, wie unbemannte Systeme die Schweiz gefährden.

Der Leiter des SDRZ, Kai Holtmann (33), sagt: «Militärische Roboter werden die Kriegsführung revolutionieren.» Als Beispiel nennt er faustgrosse Drohnen mit Gesichtserkennung, sogenannte Slaughterbots. Sie könnten gezielt Menschen töten, indem sie gegen den Kopf fliegen und explodieren. Noch gibt es keine solchen Slaughterbots. Holtmann sagt aber: «Technologien entwickeln sich schnell weiter und können eine Bedrohung darstellen.»

Dank einer KI kann der Roboter Anymal auf Trümmer steigen.
Foto: AFP
1/6

Die Schweizer Armee setzt bereits Drohnen und Roboter ein, die aufklären und überwachen können. Zudem fokussiert sie auf Robotik-Forschung für die Katastrophenhilfe. So experimentiert sie zum Beispiel mit einer Roboter-Schlange, um nach einem Erdbeben Verschüttete zu finden. Zwar steckt die Robotik der Armee noch in den Kinderschuhen. Doch das könnte sich bald ändern.

Fehleranfällige Roboter im Einsatz

«In ein paar Jahren verwendet die Armee KI-Systeme», sagt Thomas Burri (46), Professor für Völker- und Europarecht an der Universität St. Gallen. Als Experte für ethische und rechtliche Fragen berät Burri das SDRZ. Er sagt: «Selbst wenn ein Roboter nicht fehlerfrei funktioniert, könnte er im Katastrophenschutz zum Einsatz kommen.» Als Grund nennt er das übergeordnete Interesse, Menschen zu retten. Angenommen, es gäbe einen KI-Suchroboter, dann hätte man ihn eingesetzt, um das U-Boot aufzuspüren, das bei der Titanic verunglückte. «Lieber ein unperfekter Roboter als nichts», sagt Burri.

Laut dem Professor gibt es aber auch ein grosses Problem. Wer übernimmt die Verantwortung, wenn der Roboter bei der Suche einen Menschen verletzt? Das Verhalten eines autonomen Roboters ist nie komplett vorhersehbar. Denn eine KI kann mit einem neuronalen Netz funktionieren und die Details davon bleiben dem Menschen verborgen. So könnte es sein, dass ein KI-Suchroboter ein unerwünschtes Handlungsmuster besitzt, von dem niemand weiss – bis es zu spät ist. «Kommt ein Mensch deswegen zu Schaden, will keiner die Verantwortung tragen», sagt Burri.

Ein Suchroboter kann diskriminieren

Ein weiteres Problem sei die Voreingenommenheit, genannt Bias. Eine KI wird mit Daten aus der realen Welt trainiert. Wenn 10 Prozent der Bevölkerung dunkelhäutig sind, kommt es bei der KI zu einer Verzerrung. Ein autonomer Suchroboter würde hellhäutige Menschen besser erkennen und eher retten. Personen mit dunkler Haut würden diskriminiert.

Ein weiteres Problem betrifft die Cybersicherheit. Dringt ein Hacker in eine KI ein, kann er ihr unerwünschte Daten zuspielen. So könnte ein autonomes Auto dazu gebracht werden, eine Wand als Ausfahrt zu registrieren.

Burri schlussfolgert: «Die Herausforderungen sind enorm, auch für die Katastrophenhilfe.» Momentan herrsche im Umgang mit KI eine Art Wilder Westen, da es weltweit noch kein Gesetz dazu gebe. Nun will die EU als Vorreiterin bis im November eine KI-Verordnung verabschieden. Die Schweiz schaut vorerst nach Brüssel – und wartet zu.

Fehler gefunden? Jetzt melden
Was sagst du dazu?
Liebe Leserin, Lieber Leser
Der Kommentarbereich von Blick+-Artikeln ist unseren Nutzern mit Abo vorbehalten. Melde dich bitte an, falls du ein Abo hast. Noch kein Blick+-Abo? Finde unsere Angebote hier:
Hast du bereits ein Abo?