KI-Bias: Wie sich Technologie negativ auf Minderheiten auswirkt

click fraud protection

Technologie, einschließlich KI, als Instrument der Diskriminierung von Minderheiten eingesetzt werden kann. Da die jüngsten Proteste gegen Black Lives Matters in den USA stattfanden, sind Diskussionen und Debatten jetzt im Gange, wie Rassismus institutionalisiert wird, insbesondere wenn es um Polizei und Recht geht Durchsetzung. Dieses Gespräch hat jetzt auch begonnen, das inhärente anzusprechen Verzerrungen in einigen Technologien.

Die Welt wird immer mehr auf Technik angewiesen. Tatsächlich hat sich in den letzten Monaten die Abhängigkeit von Technologien erhöht, die während der COVID-19-Pandemie für Kommunikation, Forschung und öffentliches Gesundheitswesen eingesetzt werden. Big Data und KI Es wird erwartet, dass es in vielen Branchen eine größere Rolle spielt, einschließlich der öffentlichen Gesundheit und der Strafverfolgung. Wenn so große Veränderungen passieren, ist es wichtig sicherzustellen, dass Diskriminierung jeglicher Art dringt nicht in das Design dieser neuen Systeme ein. Solche grundlegenden Fehler können bei Technologie auftreten und der Empfehlungsalgorithmus von Facebook ist ein gutes Beispiel dafür, wie Technologie sein kann 

spaltend durch Design.

Voreingenommenheit gegenüber Minderheiten lässt sich auch bei Technologien erkennen, die von Big Data angetrieben werden, und insbesondere bei der Polizeiarbeit. Wie MIT-Tech-Rezension weist darauf hin, dass bereits technische Tools im Einsatz sind, die eine rassistische Voreingenommenheit aufweisen, wobei Aktivisten wie Hamid Khan darum kämpfen, ihren Gebrauch zu stoppen. Voreingenommenheit in einem technologischen System oder einer Infrastruktur ist nichts Neues. Ein frühes Beispiel dafür in den USA sind die gezielt gebauten niedrigen Brücken auf Long Island Parkways, die zum Jones Beach von Robert Moses führen. In der gefeierten Biografie Der Strommakler von Robert Caro, und wie von NBC-Nachrichten, wird vorgeschlagen, dass Moses dies tat, um die Busse draußen zu halten und Afroamerikaner, Latinos und New Yorker mit niedrigem Einkommen daran zu hindern, öffentliche Verkehrsmittel zu benutzen, um den Strand zu erreichen.

Rassistische Algorithmen sind ein Problem

Heute machen sich Forscher und Aktivisten mehr Sorgen über rassistische KI als über rassistische Straßen. Das prädiktive Polizeiprogramm des Los Angeles Police Department, das darauf abzielt, vorherzusagen, wo Eigentumsdelikte passieren werden, ist eines davon. Da das Programm spießige Daten verwendet, die im Laufe der Jahre von der Polizei gesammelt wurden, ist es wahrscheinlich voreingenommen gegen Minderheiten, wobei Kritiker darauf hindeuten, dass der Algorithmus unverhältnismäßig auf Minderheiten abzielt Nachbarschaften. Das LAPD hat jedoch kürzlich angekündigt, das Programm aufgrund der durch die COVID-19-Krise verursachten Geldknappheit einzustellen.

Gesichtserkennung ist eine weitere Familie von Technologien, die eine umstrittene Erfolgsbilanz in Bezug auf rassistische und geschlechtsspezifische Vorurteile vorweisen kann, da Systeme ständig nicht-weiße Gesichter falsch identifizieren. Strafverfolgungsbehörden verwenden häufig KI-gestützte Gesichtserkennungstechnologie, die von. entwickelt wurde Unternehmen wie Clearview AI. Die Entwicklung und Nutzung von Massenüberwachungstools selbst ist ein fragwürdiges Thema, jedoch ist eine rassistisch voreingenommene Massenüberwachungstechnologie einfach inakzeptabel. Hervorgehoben in einem 2019 Washington Post Artikel bestätigte eine bundesstaatliche Studie, dass die meisten in den USA verwendeten Gesichtserkennungstechnologien ernsthaft ungenau sind, wenn es um die Identifizierung von Gesichtern nichtweißer Menschen geht. Ein Vergleich mit von asiatischen Unternehmen entwickelten Algorithmen, die asiatische Gesichter viel besser identifizieren konnten, deutete darauf hin, dass die verzerrten Daten, die beim Training des Algorithmus verwendet werden, das Problem sind.

Nach den jüngsten Protesten nehmen Tech-Unternehmen die Angelegenheit jetzt ernster und wie berichtet von CNBC, IBM hat kürzlich angekündigt, aus dem Gesichtserkennungsgeschäft auszusteigen. Der CEO des Unternehmens, Aravind Krishna, sagte in einem Brief, dass IBM auch viele der im Polizeireformgesetz der Demokraten vorgeschlagenen Reformen unterstützt. Außerdem hat Amazon kürzlich angekündigt, wie es war einen einjährigen halt machen über die Verwendung der Gesichtserkennungstechnologie Rekognition durch die Polizei. Dies sind ermutigende Zeichen und hoffentlich werden andere große Unternehmen, die in die Gesichtserkennung investiert haben, diesem Beispiel folgen. Allerdings muss sich in der Technologie und in der KI-Forschung und -Gestaltung im Allgemeinen viel ändern, um mit dem, was heute als „Techno-Rassismus“ bekannt ist, umzugehen.

Thor Writer entschuldigt sich für riesigen Marvel-Kontinuitätsfehler mit Mjolnir

Über den Autor