re:publica: Künstliche Intelligenz soll Kriegsverbrechen in Videos aufspüren

Die Software "VFrame" soll mit Hilfe einer Künstlichen Intelligenz dabei helfen, Kriegsverbrechen und Menschenrechtsverstöße in Videos vom Syrienkrieg zu entdecken. Doch die automatische Löschung von Videos durch YouTube erschwert das Vorhaben.

In Pocket speichern vorlesen Druckansicht 44 Kommentare lesen
re:publica: Künstliche Intelligenz soll Kriegsverbrechen in Videos aufspüren

(Bild: Jan Zappner/re:publica / CC BY-SA 2.0 (https://creativecommons.org/licenses/by-sa/2.0/))

Lesezeit: 2 Min.
Von
  • dpa

Menschenrechtler wollen mit Hilfe einer Künstlicher Intelligenz Kriegsverbrechen und Menschenrechtsverstöße im Syrienkonflikt nachweisen. Die Software namens "VFrame" könne in Videos verdächtige Objekte identifizieren und Metadaten auslesen, die bei der Verifikation der Aufnahmen helfen, erklärte Hadi Katib, Gründer des "Syrian Archive".

Die Einrichtung sammelt Videos und Bilder des Syrienkonflikts aus öffentlich zugänglichen Quellen wie sozialen Netzwerken und wertet sie aus. Die Organisation war an der Entwicklung des Programms beteiligt. Neben Strafverfolgungsbehörden sei das auch für Investigativjournalisten interessant, betonte der Mitentwickler Adam Harvey bei der Internetkonferenz re:publica am Donnerstag.

Täglich landeten Hunderte privater Aufnahmen aus dem Syrienkrieg in sozialen Netzwerken, sagte Katib. Alle Aufnahmen einzeln nach Hinweisen auf Menschenrechtsverstöße zu sichten, sei aufgrund der Masse nicht mehr möglich.

Der zugrundeliegende Algorithmus werde unter anderem darauf trainiert, systematisch Munition auf Bildern zu erkennen, auch dann, wenn die abgebildete Munition verschmutzt oder beschädigt sei. Auch bei der Verifikation von Aufnahmen helfe das Programm, erklärte Mitentwickler Adam Harvey. In Anwendungsbeispielen zeigten Katib und Harvey unter anderem Belege für den Einsatz von Streumunition durch das russische Militär sowie für Hunderte Einsätze chemischer Waffen im Syrienkonflikt.

Katib und Harvey warfen Plattformen wie Google und Youtube vor, bei dem Versuch, extremistische Inhalte zu löschen auch massenhaft Beweise für Menschenrechtsverstöße zu vernichten. Allein Google habe laut dem jüngsten Transparenzbericht zu diesem Zweck mehr als acht Millionen Videos gelöscht. Viele davon enthielten nachweislich keinen Extremismus, dafür aber Hinweise auf Menschenrechtsverstöße. (olb)