coyle18_M.R. Cole Photographer_Getty Images_AI data M.R. Cole Photographer/Getty Images

Die Gefahren einer auf Daten beruhenden Sicherheit

CAMBRIDGE – Freunde von mir, die in den Kunst- und Geisteswissenschaften arbeiten, haben mit etwas begonnen, was – zumindest für sie – ungewöhnlich ist: Sie beschäftigen sich mit Daten. Dies liegt natürlich an der Pandemie. Jeden Tag überprüfen sie die COVID-19-Fallzahlen, wie schnell oder langsam der R-Wert sinkt, und wie viele Menschen sich am Vortag angesteckt haben.

Unterdessen sind die sozialen Medien voll mit Behauptungen und Gegenbehauptungen über alle möglichen anderen Daten: Nimmt die weltweite Armut zu oder ab? Wie hoch ist die US-Arbeitslosigkeit wirklich? Diese Untersuchungen, die manchmal zu empfindlichen Streitigkeiten führen, liegen am Bedürfnis der Menschen, die Autorität der Daten zu verwenden, um ihre Einstellungen oder Weltanschauungen zu belegen – oder in Frage zu stellen.

Aber in anderen datenintensiven Bereichen wird kaum beachtet, wie verlässlich diese Daten eigentlich sind und wie sie interpretiert werden. Ein krasses aktuelles Beispiel dafür sind die sogenannten „CAPTCHA“-Tests, mit denen Webseiten gegen Bots geschützt werden sollen. Dort wird man aufgefordert, sich als Mensch zu identifizieren, indem man Bilder auswählt, auf denen Boote, Fahrräder oder Ampeln zu sehen sind. Das maschinelle System, das die Entscheidung trifft, kalibriert seinen Algorithmus zur Bilderkennung wiederum mithilfe der menschlichen Auswahl, und wenn die eigene Wahl – selbst wenn sie richtig ist – von diesem Algorithmus abweicht, wird man als nicht menschlich eingeschätzt.

https://prosyn.org/4hu06nSde