In einem internen Bericht, welcher der Washington Post vorliegt, wird behauptet, dass ein Gesichts-Scan-System einen «Uiguren-Alarm» auslösen könne. Dies löst Bedenken aus, dass die Software das Vorgehen Chinas gegen die muslimische Minderheit weiter verschärft.
Der Tech-Gigant Huawei hat ein Gesichtserkennungs-System getestet, welches die chinesische Behörde automatisch informiert, wenn ein Mitglied der unterdrückten Minderheit erkannt wird. Dies steht in einem internen Dokument, welches von Huawei-Vertretern unterzeichnet wurde.
Weiter wird darin ausgeführt, dass das Telekommunikationsunternehmen Huawei 2018 mit dem Gesichtserkennungs-Start-Up Megvii zusammengearbeitet hat, um ein Kamerasystem mit künstlicher Intelligenz zu testen. Dieses scannt nicht nur Gesichter in einer Menge, sondern kann auch direkt das Alter, das Geschlecht und die ethnische Zugehörigkeit jeder Person abschätzen.
Entdeckt wurde der Bericht auf der Website von Huawei. Er wurde allerdings entfernt, nachdem die «Washington Post» und die Forschungsorganisation IPVM (welche den Bericht entdeckt hat) die Firmen um eine Stellungnahme gebeten haben. Über den Twitter-Kanal von IPVM ist der archivierte chinesische Bericht zugänglich:
The original Huawei Europe test report showing Uyghur alarms is archived here https://t.co/ZGTT2LxqvG We use @permacc from the Harvard Law library as many companies delete their links as soon as they know we have found their documents cc: @drewharwell @CharlesRollet1 pic.twitter.com/b0Xe7WHs54
— IPVM (@ipvideo) December 9, 2020
Menschenrechtsaktivisten beobachten schon seit einigen Jahren, dass solche Technologie bei der chinesischen Polizeibehörde eine immer grössere Rolle spielt. Dieses Dokument wirft nun ein neues Licht darauf, wie Huawei zu dieser Entwicklung beigetragen hat, indem es Server, Kameras und andere Tools dafür bereitgestellt hat.
IPVM fasst ihren Fund und die Problematik davon in diesem Video zusammen:
Huawei / Megvii Uyghur Alarms, see how the China's biggest tech company partnered with one of their biggest facial recognition companies to test and verify this racist functionality pic.twitter.com/xJmTbYKrSu
— IPVM (@ipvideo) December 8, 2020
Wie die «Washington Post» berichtet, haben sowohl Huawei als auch Megvii bestätigt, dass das Dokument echt sei. Huawei-Sprecher Glenn Schloss sagte ihnen gegenüber:
Auch ein Megvii-Sprecher betonte, dass ihre Systeme nicht darauf ausgerichtet seien, ethnische Gruppen anzuvisieren.
Währenddessen sagen chinesische Beamte, dass solche Systeme den technologischen Fortschritt ihres Landes widerspiegeln und sie damit die Sicherheit der Menschen gewährleisten könnten. Internationale Rechtsvertreter beobachten diese Entwicklungen jedoch kritisch – für sie verweise dies auf Chinas Traum von sozialer Kontrolle. Es sei ein Weg, wie unerwünschte Mitglieder in der Gesellschaft identifiziert und Meinungsverschiedenheiten unterdrückt werden können.
Chinas Aussenministerium hat auf eine Anfrage der «Washington Post» nicht reagiert.
(saw)
Den Beweis werden die Chinesen bestimmt bald liefern.