Kesb, Steuern, Polizei
Wo der Staat überall künstliche Intelligenz einsetzt

Die Schweizer Behörden werden künstlich intelligenter. Die Polizei setzt bei ihren Ermittlungen auf Algorithmen – und künftig vielleicht auch die Kesb. Was alles wo im Einsatz ist, weiss niemand.
Publiziert: 24.05.2024 um 11:50 Uhr
conny_schmid.jpg
Conny Schmid
Beobachter

Nasenbohren, Ohrengrübeln, Nägelkauen: alles ganz ungeniert – ach, Autofahren ist so herrlich privat! Das denken viele. Doch sie irren: Autofahren ist überhaupt nicht privat. Hunderte von Kameras erfassen auf Schweizer Strassen automatisch alle vorbeifahrenden Fahrzeuge.

Aktuell werden «nur» die Kennzeichen gescannt und mit Fahndungsdatenbanken der Polizei abgeglichen. Möglich wäre viel mehr. Manche Kantone haben die Kameras bereits eingesetzt, um Verkehrsdelikte zu ahnden, oder sie wollten auch die Personen im Auto aufnehmen. Sie wurden vom Bundesgericht zurückgepfiffen. Für einen derartigen Eingriff in die Grundrechte fehlten die gesetzlichen Grundlagen. Deshalb überarbeiten jetzt viele Kantone ihre Polizeigesetze.

Artikel aus dem «Beobachter»

Das ist ein Beitrag aus dem «Beobachter». Das Magazin berichtet ohne Scheuklappen – und hilft Ihnen, Zeit, Geld und Nerven zu sparen.

Probieren Sie die Mobile-App aus!

Das ist ein Beitrag aus dem «Beobachter». Das Magazin berichtet ohne Scheuklappen – und hilft Ihnen, Zeit, Geld und Nerven zu sparen.

Probieren Sie die Mobile-App aus!

Kantone geben sich bedeckt

Die automatische Fahrzeugfahndung und Verkehrsüberwachung ist nur ein Beispiel für Algorithmen und künstliche Intelligenz (KI) in der Verwaltung. Welche Behörden welche Arbeiten schon heute an Rechner delegieren, ist jedoch nicht bekannt. Die Nichtregierungsorganisation Algorithm Watch CH hat letztes Jahr sämtliche Kantone angefragt. Viele antworteten gar nicht, manche gaben nicht alles an. Und fünf gestanden, sie hätten selber keinen Überblick.

Kameraaufnahmen lassen sich gut mit künstlicher Intelligenz analysieren.
Foto: PIUS KOLLER
1/5

Die Nichtregierungsorganisation (NGO) kritisiert die Intransparenz. «Behörden haben sehr sensible Daten von uns, und man weiss, dass Algorithmen diskriminierende Folgen haben können», sagt Geschäftsleiterin Angela Müller. Das Problem: Privat kann jede und jeder selber entscheiden, sich dem Algorithmus von Instagram oder Tiktok zu unterwerfen. Bei Behörden hat man keine Wahl.

Algorithm Watch fordert, dass staatliche Organe in einem Verzeichnis offenlegen, welche Tools sie einsetzen. «Nur wenn wir als Gesellschaft wissen, wo was eingesetzt wird, können wir auch Verantwortliche zur Rechenschaft ziehen, wenn zum Beispiel Menschenrechte verletzt werden.»

Wissenschaftlich umstrittene Tools

Bei ihrer Recherche in den Kantonen fand die NGO rund 80 verschiedene Anwendungen. Besonders beliebt sind Chatbots, die Standardfragen beantworten, etwa bei Strassenverkehrs-, Zivilstands- oder Handelsregisterämtern. Zudem haben viele Kantone die Steuerveranlagungen automatisiert. Gerichte schwärzen Urteile mithilfe von KI. Polizei und Staatsanwaltschaften beurteilen mit wissenschaftlich umstrittenen Tools die Gefährlichkeit von «Gefährdern» oder die Rückfallgefahr bei Straftätern. 

Meist geht es darum, Abläufe effizienter zu machen oder Entscheide objektiver, denn ein Computer hat keine Vorurteile. Meint man. Doch wie geht künstliche Intelligenz? Ein Algorithmus sucht in einem Datensatz statistische Zusammenhänge und leitet daraus Regeln ab. Diese werden dann auf neue Daten angewandt. Wenn die Anfangsdaten Diskriminierungen enthalten, schreibt der Algorithmus sie in die Zukunft fort.

Künstliche Intelligenz: Fatale Fehler

Beispiele aus dem Ausland zeigen, welche Folgen das haben kann. In den USA landete ein dunkelhäutiger Mann unschuldig im Gefängnis, weil eine Gesichtserkennungs-KI ihn mit einem Dieb verwechselt hatte. Die KI hatte Probleme, dunkelhäutige Menschen voneinander zu unterscheiden, weil sie überwiegend mit Bildern von hellhäutigen Menschen trainiert worden war.

In den Niederlanden trieb ein diskriminierender Algorithmus Zehntausende Familien in den Ruin. Weil sie Doppelbürger waren, wurden sie bezichtigt, Kindergeld erschlichen zu haben. Viele zerbrachen an den angeblichen Schulden, bevor der Irrtum ans Licht kam.

Auch in der Schweiz wird experimentiert

Und in der Schweiz? KI zur Betrugsbekämpfung im Sozialbereich ist bislang nicht im Einsatz. Generell gibt man sich risikobewusst. Der Bundesrat hat Leitlinien erlassen für den Einsatz von KI in der Bundesverwaltung. Der Mensch und das Gemeinwohl müssten im Zentrum stehen, heisst es darin.

Trotzdem wird mit KI experimentiert, auch in heiklen Bereichen. Beim Staatssekretariat für Migration etwa läuft ein Pilotprojekt, das die Verteilung von Geflüchteten auf die Kantone verbessern will. KI soll dazu beitragen, dass sie eher einen Job finden. Heute spielen Merkmale wie Alter, Geschlecht oder Sprachkenntnisse bei der Zuteilung keine Rolle. Das führt zum Beispiel regelmässig dazu, dass französischsprachige Menschen in der Deutschschweiz landen und umgekehrt. Ihre Chancen auf dem Arbeitsmarkt sind entsprechend schlecht.

«Für die Betroffenen ist das Ergebnis insgesamt besser»

Forschende der ETH Zürich haben einen Algorithmus entwickelt, der die Nachfrage in den Kantonen berücksichtigt. Sie haben die KI mit Daten von 1999 bis 2012 trainiert und an Daten von 2013 getestet. Resultat: Nach drei Aufenthaltsjahren könnten bis zu 26 Prozent der Geflüchteten berufstätig sein – statt nur 15 Prozent wie damals.

Werden so nicht auch Vorurteile zementiert? Etwa wenn ältere Personen in gewissen Kantonen auf dem Arbeitsmarkt besonders stark diskriminiert sind und dann anderen Kantonen zugewiesen werden? «Im Prinzip ja, aber für die Betroffenen ist das Ergebnis insgesamt besser», sagt der ETH-Politikwissenschaftler und Projektleiter Dominik Hangartner. «Der Algorithmus weist sie dem Kanton zu, in dem ihre Chancen am grössten sind.» Ein weiterer Vorteil: «Diese Integrationsförderung ist praktisch gratis zu haben.»

Hat Covid die Ergebnisse verfälscht?

Seit 2020 werden vorläufig Aufgenommene und anerkannte Flüchtlinge nach dem Zufallsprinzip in eine Pilot- und eine Kontrollgruppe eingeteilt. Diejenigen in der Pilotgruppe werden auf Vorschlag des Algorithmus einem Kanton zugeteilt, die anderen nach der bisherigen Methode. Resultate liegen noch nicht vor. «Zum Problem könnte werden, dass sich der Arbeitsmarkt nach der Covid-Pandemie verändert hat, die KI aber anfänglich mit älteren Daten trainiert wurde», sagt Hangartner.

Noch weiter in die Zukunft weist ein Forschungsprojekt an der Zürcher Hochschule für Angewandte Wissenschaften im Bereich Kindesschutz. Die Idee: KI soll beurteilen, ob in einem konkreten Fall zum Beispiel eine Fremdplatzierung, eine Familienbegleitung oder eine andere Massnahme sinnvoll ist. KI kann Fachpersonen helfen, bessere Entscheidungen zu treffen, davon ist David Lätsch überzeugt. Er leitet das Projekt und sagt: «Heute basieren solche Entscheide immer auch auf den persönlichen Erfahrungen der Mitarbeitenden. Die sind natürlicherweise begrenzt.»

KI mit Zugriff auf 30'000 Kindesschutz-Fälle

Die KI, die er mit seinem Team entwickelt, kann dagegen auf anonymisierte Daten der Zürcher Kinder- und Jugendhilfezentren zugreifen – mit rund 30'000 Fällen. Sie enthalten persönliche Merkmale der betroffenen Familien und Verlaufsberichte der Beiständinnen und Beistände. Mit der Hälfte der Fälle soll eine KI trainiert werden, die lernt, wann welche Massnahmen Erfolg versprechen. An der anderen Hälfte der Daten wird getestet, wie gut sie darin ist.

Noch sind wir weit davon entfernt, dass KI über Kindesschutzmassnahmen entscheidet. Das sei ohnehin nicht das Ziel, das mache auch künftig immer eine Fachperson, betont man beim Kanton Zürich, der das Projekt finanziert. Momentan bereitet das Forscherteam die Daten auf, analysiert die Verlaufsberichte und sucht allfällige Diskriminierungen. «Wir wollen eine faire KI. Diskriminierende Merkmale werden entweder ausgeklammert oder gewichtet», sagt David Lätsch.

Problem für Behörden: KI gilt nicht als Begründung

Angela Müller von Algorithm Watch begrüsst es, wenn Diskriminierungen auch technisch bekämpft werden. Das sei aber nicht immer möglich. Ebenso wichtig sei, wie ein Tool angewandt werde. «Gerade in sensiblen Bereichen wie dem Migrations- und Sozialwesen werden Betroffene selten in die Entwicklung einbezogen oder informiert, und sie können sich weniger gut wehren. Umso wichtiger sind Transparenz und wirksame Aufsichtsmechanismen.»

Eine weitere Krux: Wie KI zu ihren Resultaten kommt, ist bei einem selbstlernenden System nicht nachvollziehbar. Die verantwortliche Behörde muss ihre Entscheide aber begründen können. Ein Problem, für das es bisher noch keine Lösung gibt.

Braucht es ein übergeordnetes KI-Gesetz, das Behörden verpflichtet, jeglichen Einsatz von KI zu deklarieren? «Das wäre übers Ziel hinausgeschossen», findet Nadja Braun Binder, Rechtsprofessorin an der Universität Basel. Sie beschäftigt sich seit langem mit dem Thema und ist eher für gezielte Anpassungen in bestehenden Gesetzen. «Wir müssen uns überlegen, wo es Regelungen braucht, zum Beispiel weil Grundrechte betroffen sind, und wo nicht.» Bleibt zu hoffen, dass Nasenbohren straffrei bleibt.

Fehler gefunden? Jetzt melden
Was sagst du dazu?
Liebe Leserin, Lieber Leser
Der Kommentarbereich von Blick+-Artikeln ist unseren Nutzern mit Abo vorbehalten. Melde dich bitte an, falls du ein Abo hast. Noch kein Blick+-Abo? Finde unsere Angebote hier:
Hast du bereits ein Abo?
Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.