TF
BREEDER
BIBO
Deborah Schnabel, Eva Berendsen, Leo Fischer, Marie-Sophie Adeoso

Code & Vorurteil. Über Künstliche Intelligenz, Rassismus und Antisemitismus

„Code & Vorurteil. Über Künstliche Intelligenz, Rassismus und Antisemitismus“ von Deborah Schnabel, Eva Berendsen, Leo Fischer und Marie-Sophie Adeoso untersucht, wie Vorurteile und Diskriminierungen in KI-Systeme eingebettet werden. Das Buch analysiert historische und gesellschaftliche Wurzeln von Rassismus und Antisemitismus und zeigt konkrete Beispiele, wie Algorithmen diskriminierende Muster reproduzieren. Es diskutiert Strategien zur Bekämpfung von Bias in technischen Systemen und betont die Notwendigkeit interdisziplinärer Zusammenarbeit.

Einleitung: Die Illusion der Neutralität Das Buch „Code & Vorurteil“ setzt sich mit der weitverbreiteten Annahme auseinander, dass Künstliche Intelligenz (KI) und algorithmische Systeme neutral und objektiv seien. Die Autor:innen Deborah Schnabel, Eva Berendsen, Leo Fischer und Marie-Sophie Adeoso widerlegen diese Vorstellung und zeigen, dass KI-Systeme oft gesellschaftliche Vorurteile wie Rassismus und Antisemitismus reproduzieren und verstärken. Sie argumentieren, dass Algorithmen und Datensätze, die für die Entwicklung von KI verwendet werden, nicht im luftleeren Raum entstehen, sondern in sozialen und historischen Kontexten verwurzelt sind. Diese Kontexte sind oft von Ungleichheiten und Diskriminierung geprägt, die sich in den Daten und damit auch in den Ergebnissen der KI-Systeme widerspiegeln.

Historische Wurzeln von Vorurteilen in KI Das Buch beginnt mit einer historischen Analyse, die zeigt, wie rassistische und antisemitische Denkmuster in Gesellschaften entstanden und sich in institutionellen Strukturen verfestigt haben. Die Autor:innen erklären, dass diese historischen Ungleichheiten nicht einfach verschwunden sind, sondern in modernen Technologien weiterleben. Zum Beispiel basieren viele Datensätze, die für das Training von KI-Systemen verwendet werden, auf historischen Daten, die von Diskriminierung geprägt sind. Wenn diese Daten unkritisch verwendet werden, reproduzieren KI-Systeme die darin enthaltenen Vorurteile. Ein konkretes Beispiel ist die Verwendung von historischen Polizeidaten, die rassistische Praktiken widerspiegeln, um Predictive Policing-Systeme zu trainieren. Solche Systeme können dann dazu führen, dass bestimmte ethnische Gruppen überproportional überwacht werden.

Fallstudien: Wie KI Vorurteile verstärkt Das Buch präsentiert detaillierte Fallstudien, die zeigen, wie KI-Systeme Rassismus und Antisemitismus reproduzieren. Ein bekanntes Beispiel ist die Gesichtserkennungstechnologie, die bei der Identifizierung von Menschen mit dunklerer Hautfarbe oft fehlerhaft ist. Studien haben gezeigt, dass diese Systeme bei weißen Gesichtern eine höhere Genauigkeit aufweisen, während sie bei Menschen mit dunklerer Hautfarbe häufiger Fehler machen. Dies liegt daran, dass die Trainingsdatensätze oft überwiegend aus Bildern von weißen Personen bestehen, was zu einer Verzerrung führt.

Ein weiteres Beispiel sind Bewerberauswahlalgorithmen, die in der Personalrekrutierung eingesetzt werden. Diese Algorithmen können Bewerber:innen aufgrund ihres Namens oder ihrer Herkunft benachteiligen, wenn sie auf verzerrten Datensätzen basieren, die historische Diskriminierung widerspiegeln. Die Autor:innen zeigen, dass solche Systeme nicht nur bestehende Ungleichheiten fortsetzen, sondern sie auch verschärfen können.

Auch im Bereich des Antisemitismus gibt es Beispiele, wie KI-Systeme stereotype Darstellungen reproduzieren. So können Textanalysesysteme, die auf historischen Texten trainiert wurden, antisemitische Klischees weiterverbreiten, wenn sie nicht sorgfältig überwacht und korrigiert werden.

Wie Vorurteile in den Code gelangen Die Autor:innen erklären, dass Vorurteile in KI-Systeme auf verschiedene Weise eingebaut werden können. Ein zentraler Faktor ist die mangelnde Diversität in den Teams, die diese Systeme entwickeln. Wenn Entwickler:innen nicht ausreichend divers sind, können sie unbewusst ihre eigenen Vorurteile in die Systeme einbauen. Zum Beispiel können Annahmen über die Bedürfnisse oder Eigenschaften von Benutzer:innen , die nicht der Realität entsprechen, zu fehlerhaften oder diskriminierenden Ergebnissen führen.

Ein weiteres Problem sind verzerrte Datensätze. Viele KI-Systeme werden mit Datensätzen trainiert, die nicht repräsentativ für die gesamte Gesellschaft sind. Wenn diese Datensätze historische oder kulturelle Verzerrungen enthalten, werden diese in den Ergebnissen der KI-Systeme sichtbar. Die Autor:innen betonen, dass es nicht ausreicht, einfach mehr Daten zu sammeln, sondern dass die Daten auch sorgfältig auf Verzerrungen überprüft werden müssen.

Lösungsansätze: Wie man Vorurteile in KI reduziert Das Buch präsentiert eine Reihe von Lösungsansätzen, um Vorurteile in KI-Systemen zu reduzieren. Ein zentraler Vorschlag ist die Entwicklung von diversen und repräsentativen Datensätzen. Die Autor:innen argumentieren, dass Datensätze die Vielfalt der Gesellschaft widerspiegeln müssen, um diskriminierende Ergebnisse zu vermeiden. Dies erfordert eine sorgfältige Auswahl und Überprüfung der Daten, die für das Training von KI-Systemen verwendet werden.

Ein weiterer wichtiger Ansatz ist die Bildung interdisziplinärer Teams. Die Entwicklung von KI-Systemen sollte nicht nur von Techniker:innen , sondern auch von Sozialwissenschaftler:innen , Ethiker:innen und Vertreter:innen betroffener Gemeinschaften durchgeführt werden. Dies kann dazu beitragen, blinde Flecken zu identifizieren und sicherzustellen, dass die Systeme fair und inklusiv sind.

Die Autor:innen diskutieren auch die Bedeutung von Transparenz und Überprüfbarkeit. KI-Systeme sollten so gestaltet sein, dass ihre Entscheidungen nachvollziehbar und überprüfbar sind. Dies kann durch die Implementierung von Fairness-Algorithmen erreicht werden, die systematisch Diskriminierung erkennen und korrigieren sollen.

Ein konkretes Beispiel für einen erfolgreichen Ansatz ist die Zusammenarbeit mit betroffenen Gemeinschaften. Die Autor:innen beschreiben Projekte, bei denen durch offene Audits und die Einbindung von Betroffenen gerechtere KI-Systeme entwickelt wurden. Solche Projekte zeigen, dass es möglich ist, KI-Systeme zu schaffen, die weniger diskriminierend sind, wenn die Entwickler:innen bereit sind, eng mit den Gemeinschaften zusammenzuarbeiten, die von den Systemen betroffen sind.

Ethische und gesellschaftliche Verantwortung Die Autor:innen betonen, dass die Entwicklung von KI-Systemen nicht nur eine technische, sondern auch eine ethische Herausforderung ist. Sie fordern, dass ethische Überlegungen von Anfang an in den Entwicklungsprozess integriert werden müssen. Dies erfordert eine Sensibilisierung für die Risiken von algorithmischen Vorurteilen, sowohl bei Entwickler:innen als auch in der breiten Öffentlichkeit.

Ein weiterer wichtiger Aspekt ist die Schaffung von gesetzlichen Rahmenbedingungen, die faire und inklusive Technologien fördern. Die Autor:innen argumentieren, dass Regulierungen notwendig sind, um sicherzustellen, dass KI-Systeme nicht diskriminierend sind. Dies könnte beispielsweise die Einführung von Standards für die Überprüfung von Datensätzen und Algorithmen umfassen.

Fazit: KI als gesellschaftliche Verantwortung Das Buch schließt mit dem Appell, dass die Entwicklung von KI-Systemen immer auch eine gesellschaftliche Verantwortung trägt. Die Autor:innen argumentieren, dass die Bekämpfung von Rassismus und Antisemitismus in KI ein fortlaufender Prozess ist, der technisches Wissen mit sozialer Verantwortung verbinden muss. Sie betonen, dass es nicht ausreicht, einfach bessere Technologien zu entwickeln, sondern dass auch die sozialen und historischen Kontexte berücksichtigt werden müssen, in denen diese Technologien eingesetzt werden.

Die zentrale Botschaft des Buches ist, dass KI-Systeme nicht neutral sind, sondern gesellschaftliche Vorurteile widerspiegeln und verstärken können. Um dies zu verhindern, ist ein bewusster, kritischer und interdisziplinärer Ansatz erforderlich, der technologische Innovation mit sozialer Gerechtigkeit verbindet. Die Autor:innen rufen dazu auf, Bildung und Sensibilisierung über algorithmische Vorurteile zu fördern und gesetzliche Rahmenbedingungen zu schaffen, die faire und inklusive Technologien gewährleisten.


QUELLE / ISBN - 9783957325891

--> Deutsche Nationalbibliothek
--> WorldCat
--> Open Libary

künstliche intelligenz, rassismus, antisemitismus, voreingenommenheit, algorithmische diskriminierung, bias, ethik, diversität, datensatz, faire algorithmen, interdisziplinarität, gesellschaftliche verantwortung, historische vorurteile, diskriminierungsbekämpfung, datenethik, inklusion, technologische neutralität, bias mitigation, algorithmic fairness, KI-entwicklung,