Verdächtiges Verhalten. Künstlerkollektiv KairUs führt an Ausbildungsorte der KI
Was ist verdächtiges Verhalten? Wie unterscheidet es sich von normalem Verhalten, wie wird es definiert und durch wen? Zeigen Aufnahmen einer Webcam, auf der zwei Menschen schnell durch eine Fußgängerzone rennen, ein problematisches Verhalten? Ist eine zurückgelassene Reisetasche auf einem Bahnsteig ein ungewöhnlicher Vorgang? Und führen Personen etwas im Schilde, die auf einem Parkplatz um ein Auto herumstehen? Diese den öffentlichen Raum betreffende Fragen werden zunehmend durch KI-unterstützte Überwachungssysteme entschieden. Aber wie gelangen sie zu ihren Urteilen?
„Verdächtiges“ Verhalten als Kunstwerk
„Suspicious Behavior“ ist ein Projekt des Künstlerkollektivs KairUs, das diesen Fragen nachgeht. Die beiden Medienkünstler*innen Linda Kronman und Andreas Zingerle forschen zu Schwachstellen in IoT-Geräten, der Privatisierung von Stadtverwaltungen in Smart Cities und bürgernahen Projekten zur digitalen Selbstverteidigung. Ihre Kunst bewegt sich zwischen praxisbasierter Forschung und künstlerischer Produktion, in der sie Position beziehen. Ihrem Kunstwerk ist in Form eines Tutorials zur Annotierung und Kategorisierung von Bildern aus Überwachungskameras, die zur Erkennung von verdächtigem Verhalten dienen. Es besteht aus einem Basis-Tutorial und mehreren Trainingsmodulen und führt in die Welt der automatischen Überwachung und maschinellen Bildverarbeitung ein. Wie bei allen Anwendungen der Mustererkennung besteht das Ziel darin, aus Bildern Bedeutung zu extrahieren. In diesem Fall verdächtiges, abweichendes Verhalten ohne menschliche Aufsicht zu erkennen und Bildinformationen in Verhaltensdaten zu übersetzen. Diese Aufgabe übernehmen Arbeiter*innen auf der ganzen Welt, das Heer der sogenannten Clickworker*innen. Sie werden dafür bezahlt, jene Dinge zu markieren, die Computern noch nicht erkennen können. Die einzelnen Aufgaben bezeichnet man auch als HITs (Human Intelligence Tasks). HITs sind kleine, in sich geschlossene, virtuelle Arbeitsaufträge, auch Mikrojobs genannt, die auf Crowdsourcing-Plattformen mit dem Ziel erledigt werden, Künstliche Intelligenzen trainieren.
Aus der Perspektive der Clickworker
Die Besucher*innen des Tutorials haben die Möglichkeit, in die Rolle eines Clickworkers zu schlüpfen und für einen unbekannten Auftraggeber verdächtiges Verhalten auf realen Bildern von Überwachungskameras zu markieren. Aufgrund von vorgegebenen Kategorien und Richtlinien für verdächtiges Verhalten, die aus Listen verschiedener US-Behörden stammen, bewerten sie in Sekundenschnelle komplexes menschliches Verhalten. Sie müssen es auf anormales oder normales Verhalten reduzieren. Das Material stammt aus verschiedenen offenen Datensätzen für maschinelles Lernen. Dieses verwendet man in den USA für das Training Künstlicher Intelligenzen zur Überwachung von Verhalten. Die Übungen in dem Tutorial machen schnell deutlich, wie leicht menschliche Voreingenommenheit und Vorurteile in das maschinelle Sehen eingebettet und ohnehin bereits marginalisierte Bevölkerungsgruppen weiter diskriminiert werden können.
Missbrauch von Daten zu Trainingszwecken
Darüber hinaus lässt das Kunstwerk keine Zweifel daran, dass im Netz hinterlassene Datenspuren zu Trainingszwecken missbraucht werden können. Nach Andreas Zingerle häufen sich Berichte, dass die Urheber*innen der oftmals hochsensiblen Bilder, etwa Besitzer*innen von Amazon Ring-Sicherheitskameras, oft nicht wissen, dass die Daten dieser schlecht gesicherten Systeme verwendet werden, um Algorithmen für intelligente Kameras zu trainieren.
Programmierung menschlichen Verhaltens?
Das Kunstprojekt wirft die Frage auf, ob es bei der Ausbildung von Maschinen, die menschliches Verhalten verstehen sollen, nicht auch um die Programmierung menschlichen Verhaltens selbst geht? Ist verdächtiges Verhalten erst einmal definiert und in biometrischen Code übersetzt, entfaltet dieser in der Öffentlichkeit zwangsläufig normative Kraft. Die Frage, die sich die Künstler*innen stellen, scheint keineswegs mehr abwegig zu sein: Trainiert der Mensch die Maschine oder trainiert die Maschine den Menschen und sein Verhalten? Was sind die sozialen Folgen dieser Technologien und wer profitiert davon?
Hier stellen die Künstler*innen ihr Projekt selbst vor: