Künstliche Intelligenz, Roboter, Hand, Diskriminierung, Benachteiligung, Domino
Selektion durch künstliche Intelligenz (Symbolfoto) © de.depositphotos.com

Künstliche Intelligenz

Ataman: Gesetz sollte vor digitaler Diskriminierung schützen

Diskriminierung kann viele Ursachen haben: Vorurteile, Hass oder schwache Gesetze. Die Antidiskriminierungsbeauftragte macht sich dafür stark, Bürger auch gegen Benachteiligungen durch Künstliche Intelligenz zu schützen. Ein Beispiel dafür gab es bereits in den Niederlanden.

Mittwoch, 30.08.2023, 16:00 Uhr|zuletzt aktualisiert: Mittwoch, 30.08.2023, 15:07 Uhr Lesedauer: 2 Minuten  |  

Die Antidiskriminierungsbeauftragte des Bundes, Ferda Ataman, fordert gesetzliche Regelungen zum Schutz vor Diskriminierung durch digitalisierte Verfahren. „Digitalisierung, künstliche Intelligenz und Algorithmen machen vieles leichter – leider auch Diskriminierung“, erklärte Ataman am Mittwoch in Berlin. Die Bundesregierung müsse die geplante Reform des Allgemeinen Gleichbehandlungsgesetzes (AGG) nutzen, um Menschen vor den Gefahren digitaler Diskriminierung zu schützen, forderte die Beauftragte.

Künftig würden automatisierte Systeme oder Künstliche Intelligenz immer häufiger Entscheidungen treffen, die für Menschen im Alltag wichtig seien. Als Beispiele nannte Ataman Bewerbungen, Kredite, Versicherungen oder staatliche Leistungen. Was auf den ersten Blick objektiv wirke, könne tatsächlich aber Vorurteile und Stereotype verfestigen, warnte sie und stellte ein Rechtsgutachten vor, das in der Fehleranfälligkeit automatisierter Entscheidungen ein großes Problem sieht und vor „Diskriminierung durch Statistik“ warnt.

___STEADY_PAYWALL___

Der Studie zufolge hängt die Qualität automatisierter Entscheidungen von den Daten ab, die in ein System eingespeist werden. Ob diese fehlerfrei oder überhaupt geeignet sind, können die Menschen, über deren Anträge entschieden wird, nicht nachvollziehen – und die Anwender der Programme in der Regel auch nicht. Menschen müssten aber darauf vertrauen können, dass sie durch Künstliche Intelligenz (KI) nicht benachteiligt werden, forderte Ataman, „und sich wehren können, wenn es doch passiert.“

Diskriminierender Algorithmus in den Niederlanden

Beispiel aus anderen Ländern zeigten, was passieren könne. In den Niederlanden wurden Ataman zufolge 20.000 Eltern zu Unrecht und unter Strafandrohungen aufgefordert, Kindergeld zurückzuzahlen. Mitverantwortlich war ein diskriminierender Algorithmus in der Software: Betroffen waren vor allem Eltern mit Migrationshintergrund. Sie wurden als Betrüger dargestellt und sollten teils Zehntausende von Euro zurückzahlen.

Ataman forderte, das „Handeln durch automatisierte Entscheidungssysteme“ als Benachteiligung in das Antidiskriminierungsgesetz aufzunehmen. Betreiber von KI-Systemen müssten verpflichtet werden, Auskunft über die genutzten Daten und die Funktionsweise ihrer Systeme zu geben und im Zweifelsfall vor Gericht beweisen, dass dies nicht zu Benachteiligungen führe. Heute ist es so, dass Betroffene, die vor Gericht ziehen, die Diskriminierung ihrerseits nachweisen müssen. (epd/mig) Leitartikel Panorama

Zurück zur Startseite
MiGLETTER (mehr Informationen)

Verpasse nichts mehr. Bestelle jetzt den kostenlosen MiGAZIN-Newsletter:

UNTERSTÜTZE MiGAZIN! (mehr Informationen)

Wir informieren täglich über das Wichtigste zu Migration, Integration und Rassismus. Dafür wurde MiGAZIN mit dem Grimme Online Award ausgezeichnet. Unterstüzte diese Arbeit und verpasse nichts mehr: Werde jetzt Mitglied.

MiGGLIED WERDEN
Auch interessant
MiGDISKUTIEREN (Bitte die Netiquette beachten.)