Mein jüngst veröffentlichtes Buch trägt das Wort ‚Fake‘ im Titel. Es geht um gefälschte Medien, die durch die Manipulation von Fotos, Videos und gesprochenem Text sind furchtbar überzeugend wirken und kaum von realen Darstellungen zu unterscheiden. Das erleben auch die besten Freunde meiner Hauptfigur im Buch. Haben wir keine Chance mehr, Fakes zu erkennen? Dazu hat der digitale Forensiker Hany Farid einen TED Talk gehalten.
Doris Schuppe • Der Beitrag Fake!? Wie erkennen? TED Talk mit digitalem Forensiker erschien zuerst im Blog DoSchu.Com.
Wie kann ein gefälschtes Video erkannt werden? Die übergreifende Handlung in meinem Buch, das Grundlagen und Fragestellungen zu generative KI vermittelt, dreht sich um dieses Thema. Denn auch die besten Freunde können nur durch Nuancen in der Stimme und in Bewegungen erkennen, dass es nicht ihre Freundin Fiona ist, die da abgebildet wird.
Lukas blickte zwischen Bildschirm und Fiona hin und her. »Ja, Kruzifix! Was ist des denn für an Schmarrn? Voll creepy! Des glaubt do koana, dass des du bist, Fi!« Er schaute sie erschrocken an.
»Das sage ich ihr ja die ganze Zeit. Ist aber perfekt gerendert und klingt extrem überzeugend, oder?« Jerry war gespannt, wie echt das gefälschte Video auf den besten Freund seiner Kollegin wirkte.
Lukas verschränkte die Arme und baute sich vor Jerry auf. »Creepy! Das kannst du laut sagen, Alter! Was hast du für ein Problem? Warum machst du so etwas? Willst du die Fi fertigmachen, oder was?« Er wandte sich jetzt Jerry vollständig zu und baute sich vor ihm auf. »Was denkst du dir dabei? Nur weil du so ein super Technikfreak bist, musst du das doch nicht an Fi auslassen? Such dir ein anderes Opfer! Oder noch viel besser: Lass es einfach!«
»Stopp, Time-out!« Fiona fuhr dazwischen, bevor Lukas mehr als verbal auf Jerry losging.
Passage aus dem Buch »ALLES FAKE!? Mit Fiona generative KI entdecken«
Die Freunde befürchten, es könnte jemand daran zweifeln, dass das Video eine Fälschung ist. So täuschend echt wirken die gesprochenen Sätze und dargestellte Person. Sodann machen sich die Freunde im Buch daran, nachzuweisen, dass es sich bei dem Video um eine Fälschung handelt.
Nun fand ich zu diesem Thema eine wichtige Ergänzung in einem TED Talk.
Digitale Forensik im Talk
Wer ist Fan von ‚CSI‘ wie ich? Als ich von ‚digitaler Forensik‘ in einer TED Talk-Aufzeichnung las, merkte ich gleich auf. Im April veröffentlichten sie den Vortrag von Hany Farid, US-amerikanischer Professor, der als digitaler Forensiker zur Analyse digitaler Bilder und Erkennung digital manipulierter Bilder sowie Deepfakes forscht.
In seinem Vortrag nimmt er uns mit auf die genaue Untersuchung eines Fotos. Ist es real oder gefälscht? Anhand verschiedener Beobachtungen entlarvt er das Bild, das auf den ersten Blick echt wirkt. In dieser Situation stecken Journalist:innen und Faktenchecker:innen weltweit. Und ja, es ist möglich, Fälschungen zu erkennen, auch wenn es nicht einfach ist.
Wer sich noch tiefer mit den Details zur Erkennung von Fakes einarbeiten möchte: Für die ‚Content Authenticity Initiative‘ verfasste Hany Farid eine sechsteilige Blogserie, die ich in den Links verknüpfe.
Gedanken zum Mitnehmen von Hany Farid
Klar gibt uns dieser Vortrag in der Kürze nur einen Einblick in die Möglichkeiten. Zum Abschluss gibt uns der digitale Forensiker noch ein paar gute Gedanken mit auf den Weg.
»I can’t turn you all into digital forensics experts in ten minutes. I can leave you with a few thoughts.« Hany Farid
- Farid verspricht, dass die im Talk beschriebenen Tools, die er mit seinem Team entwickelt, Journalist:innen, Institutionen und Gerichten zur Verfügung gestellt werden, damit diese Fälschungen erkennen können.
- Farid weist auf einen internationalen Standard hin, mit dem Inhalte zum Zeitpunkt der Erstellung authentifiziert werden können. Damit soll es jeder und jedem möglich sein nachzuprüfen, ob ein digitales Foto oder Video echt ist.
- „Please understand that social media is not a place to get news and information“, sagt Farid eindringlich: Social Media sei keine Anlaufstelle für Nachrichten und Informationen. Er bezeichnet Social Media vielmehr als einen Ort, den das ‚Silicon Valley‘ geschaffen habe, um mit ‚Junkfood‘ unsere Zeit und Aufmerksamkeit zu fesseln. Und wie jede schlechte Angewohnheit sollten wir damit aufhören. Und falls wir von Social Media nicht lassen können, dann sollte es zumindest nicht die primären Informationsquelle sein, da sie einfach zu sehr mit Lügen, Verschwörungen und jetzt auch KI-Mist durchsetzt ist, um auch nur annähernd zuverlässig zu sein.
- „Don’t be part of the problem.“ Farid erinnert daran, dass wir Teil des Problems sind, wenn wir falsche oder irreführende Informationen verbreiten – ob absichtlich oder nicht.
»Take a breath before you share information, and don’t deceive your friends and your families and your colleagues, and further pollute the online information ecosystem.« – Hany Farid
Wir haben die Wahl
Wichtiger Appell von Hany Farid: Wir haben die Wahl, in welche Richtung wir gehen. Wir sind nicht so ohnmächtig, wie wir uns oft fühlen. Weitermachen wie bisher oder Kursänderung und neue Wege finden, wie wir Technologie für uns und mit uns nutzen, statt gegen uns. Diese Entscheidung liegt ganz bei uns.
»We can find a new way to leverage the power of technology to work for us and with us, and not against us. That choice is entirely ours.« – Hany Farid
Eine wichtige und gut formulierte Ergänzung zu den Diskussionen, die meine Figuren im Buch führen.
-`ღ´-
Links zu Fake!? Wie erkennen? TED-Talk mit digitalem Forensiker
- Hany Farid Profilseite an der Universität Berkeley https://farid.berkeley.edu/
- Hany Farids sechsteilige Blogserie für die Content Authenticity Initiative https://contentauthenticity.org/blog/from-the-darkroom-to-generative-ai
- From the darkroom to generative AI
- How realistic are AI-generated faces?
- Photo forensics for AI-generated faces
- Photo forensics from lighting environments
- Photo forensics from lighting shadows and reflections
- Passive versus active photo forensics in the age of AI and social media
- PolitiFact unabhängiges Fakt-Checken in den USA https://www.politifact.com
- Content Authenticity Initiative entwickelt ein sicheres System zur Kennzeichnung der Herkunft digitaler Inhalte mit Open-Source-Tools https://www.contentauthenticity.org/how-it-works
- 5 Tipps zum Erkennen von KI-generierten Bildern von Walter Feichtinger / Mimikama https://www.mimikama.org/5-tipps-wie-erkenne-ich-ki-generierte-bilder
- Wie man KI-generierte oder digital veränderte Inhalte erkennt in Correctiv https://correctiv.org/faktencheck/faktencheck-tipps/2024/06/06/wie-man-ki-generierte-oder-digital-veraenderte-inhalte-erkennt
Wichtige und extrem unterstützenswerte Organisationen
- AlgorithmWatch setzt sich dafür ein, die Menschenrechte mit Algorithmen und KI zu stärken, statt zu schwächen.
- Correctiv.Faktencheck deckt Falschinformationen, Gerüchte und Halbwahrheiten auf.
- digitalCourage arbeiten seit 1987 für Grundrechte und Datenschutz in Digitalien.
- Hate Aid unterstützt Betroffene bei digitaler Gewalt und auch Deepfakes.
- Mimikama ist eine wichtige Anlaufstelle, wenn du abklären willst, ob etwas Fake und Desinformation ist.
-`ღ´-
Tipp:
»ALLES FAKE!? Mit Fiona generative KI entdecken«
Gedrucktes Buch autorenwelt genialokal hugendubel buecher.de thalia amazon
eBook genialokal ebook hugendubel ebook
buecher.de ebook thalia ebook amazon ebook

-`ღ´-
Wer schreibt hier für dich?

Doris Schuppe ‚DoSchu‘ ist die Autorin dieses Beitrags • Moderatorin von Begegnungsräumen im digitalen Zeitalter – Barcamp, Coworking, Community, LernCircle, SchreibClub – mit Herz & KI-Kompetenz • Autorin von Blogs & Books »ALLES FAKE!? Mit Fiona generative KI entdecken« & »Heiter bis wolkig in Digitalien«.
Host von cowirk.SPACE, Rayaworx Mallorca & Peer Learning Community.
Gerne unterstütze ich dich / dein Team als Consultant oder Moderatorin.
Illustration: DoSchu mit Canva.com und CanvaKI

1 thought on “Fake!? Wie erkennen? TED Talk mit digitalem Forensiker”