Diskriminierende KI:
Facebook-Algorithmus beleidigt Schwarze
Ein Facebook-Algorithmus hat schwarze Menschen mit Primaten gleichgesetzt. Eine Facebook-Sprecherin nennt dies in einer Entschuldigung einen "eindeutig inakzeptablen Fehler". Es ist nicht der erste dieser Art.
Schon in der Vergangenheit zeigten diverse Beispiele, wie Künstliche Intelligenz und Algorithmen als Spiegel der Gesellschaft Diskriminierung und Rassismus reproduzieren können. Jetzt kam es auch bei Facebook einmal mehr zu einem solchen Vorfall. Wer ein Video mit dem Titel "Weißer Mann ruft Polizei wegen schwarzen Männern am Hafen" gesehen hatte, das vom britischen Boulevardblatt Daily Mail gepostet wurde, wurde anschließend gefragt, ob er "weiterhin Videos über Primaten sehen möchte".
Facebook reagierte prompt. Die verantwortliche Software wurde abgeschaltet. Darüber hinaus entschuldigte sich das Social Network "bei jedem, der diese beleidigende Empfehlung gesehen hat" für seinen "eindeutig inakzeptablen Fehler". Allerdings ist es nicht das erste Mal, dass es bei der benutzten Gesichtserkennungssoftware zu Problemen kommt. Bürgerrechtler weisen schon länger auf Probleme mit der Genauigkeit hin.
Den aktuellen Fehler entdeckte eine ehemalige Facebook-Managerin. Sie sagte gegenüber der New York Times, dass eine Reihe von Vorfällen zeige, dass der Umgang mit Rassismus-Problemen in der Firmenleitung keine Priorität habe. Sich immer nur zu entschuldigen, sei einfach nicht genug.