Racial Profiling - wahrscheinlich nicht mit Absicht

Ein anderer Twitter-Nutzer behauptet, dass dieses Experiment die voreingenommene Denkweise von Entwicklern und Programmierern beweist. Andere sind der Meinung, dass es problematisch sei, anhand nur einiger Beispiele von Racial Profiling zu sprechen. Um die Verzerrung wirklich beurteilen zu können, benötigen Forscher eine umfangreichere Stichprobengröße mit mehreren Beispielen.

Mittlerweile hat sich Twitter-Sprecherin Liz Kelley zu diesem Thema geäußert. "Vielen Dank an alle, die das angesprochen haben. Wir haben vor der Auslieferung des Modells auf Verzerrungen getestet und bei unseren Tests keine Hinweise auf rassistische oder geschlechtsspezifische Verzerrungen gefunden, aber es ist klar, dass wir noch mehr Analysen durchführen müssen. Wir werden unsere Arbeit als Open Source veröffentlichen, damit andere sie überprüfen und replizieren können."

Im Jahr 2018 veröffentlichte Twitter einen Blog-Beitrag, in dem erläutert wurde, wie die KI für die Fotovorschau gebaut wurde. Einer der Faktoren, die das System veranlassen, einen bestimmten Teil eines Bildes auszuwählen, sind höhere Kontraststufen. Das könnte erklären, warum das System weiße Gesichter zu bevorzugen scheint. 



Autor: Nadia Riaz

volontierte bei W&V und Kontakter, war anschließend Redakteurin bei LEAD, wo sie ihre Begeisterung für Digital- und Tech-Themen entdeckte. Nadia hat München für Hamburg ausgetauscht und schreibt jetzt als freie Autorin für W&V am liebsten über Blockchain und KI.