• AI Peanuts
  • Posts
  • 🖼️ Desinformation 2.0: Wie KI die Bilderflut aus Israel und Gaza verkompliziert

🖼️ Desinformation 2.0: Wie KI die Bilderflut aus Israel und Gaza verkompliziert

Social Media wird diese Woche überschwemmt mit Bildern, die aus Israel und Gaza stammen könnten oder auch nicht. Und laut sind vor allem diejenigen die sagen es handelt sich dabei um "Generativen KI-Fälschungen"!

Die Falschaussagen laufen in beide Richtungen: Online-Tools zur Erkennung von KI-Bildern, die eigentlich nicht funktionieren, stufen echte Fotos in Israel und Palästina als Fälschungen ein. Beispielsweise bezeichnete das Tool ein Foto einer verbrannten Leiche aus dem Gazastreifen als KI-generiert - Experten zufolge ist es jedoch echt. Das Ganze schafft eine "zweite Stufe der Desinformation", wie ein weltweit führender Experte es nannte.

Das Ganze macht die Diskussion rund um Wasserzeichen für KI-Generierte Bilder umso wichtiger. Microsoft, Adobe und andere große Unternehmen haben zugesagt, ihre KI-generierten Bilder mit Metadaten zu versehen, damit Anwendungen sie künftig mit einem speziellen Symbol als maschinell erstellt kennzeichnen.

Doch was wenn Nutzer gar nicht wollen, dass generierte Bilder als solche erkennbar sind? Ein Screenshot eines generierten Bildes genügt um auch geschützte Metadaten auf Bildern wieder zu entfernen.

Adobe plant ein Cloud, die Metadaten wiederherstellen, wenn es eine visuelle Übereinstimmung gibt. So etwas wie die umgekehrte Bildersuche von Google, die die ursprünglichen Metadaten zurückgibt. Wenn also jemand versucht, ein Bild im Web oder über eine App zu veröffentlichen, und alles passt, sollte die Herkunft des Bildes klar sein, selbst wenn die Metadaten vor der Veröffentlichung verloren gegangen sind - sie würden von der Cloud wiederhergestellt werden.

Doch ob das Ganze wirklich gegen Desinformation hilft ist eine ganz andere Frage. In der Zwischenzeit werden die meisten Bilder, ob echt oder nicht, nicht mit solchen Kennzeichnungen versehen sein.

[Artikel zu KI-Wasserzeichen]