Ja, klar, am 1. April sind wir besonders aufmerksam. Inzwischen sollte leider klar sein: Auch an den anderen Tagen und Monaten im Jahr ist genaues Hinsehen und Hinterfragen angesagt. Generative KI leistet so verdammt realistische Arbeit, dass wir zunehmend Mühe haben, die Fakes zu entlarven. Tipps und Quellen für euch zum internationalen #FactCheckingDay.
Doris Schuppe • Der Beitrag Nur April? • Generative KI & Fakes erschien zuerst im Blog DoSchu.Com.
Falschinformationen, Fakes aus Spaß oder mit politischen Hintergrund durchfluten alltäglich Social Media und Internet. Nicht nur am ersten Apriltag, als der ›Menschenfleisch-Verkauf im Supermarkt‹ als perfekt mit KI generiertes Foto zu entlarven war (siehe Mimikama).
Nehmt jeden Tag krass wirkende News, Fotos oder Videos wie einen möglichen April›scherz‹. Prüft den Wahrheitsgehalt und die Quelle, bevor ihr euch aufregt oder gar das Machwerk weiterleitet.
Wikipedia schreibt: »Als Aprilscherz bezeichnet man den Brauch, seine Mitmenschen am 1. April durch erfundene oder verfälschte, meist spektakuläre oder fantastische Geschichten, Erzählungen oder Informationen in die Irre zu führen (›hereinlegen‹) und so ›zum Narren zu halten‹. Aufgelöst wird der Schwindel meist mit dem Ruf ›April, April‹. Die Tradition des Aprilscherzes gibt es in den meisten europäischen Ländern sowie in Nordamerika.«
https://de.wikipedia.org/wiki/Aprilscherz
In Spanien fängt übrigens niemand etwas mit unserer Frühlings-Kultur des Aprilscherzes an. Da finden die Späße nämlich im Winter, am 28. Dezember, dem Día de los Santos Inocentes, statt. Das Adjektiv inocente bedeutet übersetzt zwar ›unschuldig‹, kann genauso mit ›dumm‹ oder ›naiv‹ interpretiert werden. Auf Mallorca gefiel mir in einem Jahr die Meldung, es dürfe nur noch auf einer Seite der Insel gebaut werden, sonst würde die Insel aus dem Gleichgewicht* geraten.
* Wer es nicht weiß: Die Balearen sind die Spitzen eines Gebirges.
International #FactCheckingDay
2016 startete das International Fact-Checking Network den internationalen Gedenktag des Faktenprüfens. Damit sollen all diejenigen weltweit gefeiert werden, die sich der wichtigen Aufgabe des Faktenchecks widmen. Menschen, die sich engagieren für eine vernetzte Welt mit korrekten Informationen und überprüften Fakten.
Der 2. April im Jahr steht seither für den International FactCheckingDay. Ein Tag mit Aktivitäten, die das Bewusstsein schärfen und gleichzeitig das Wissen rund um Prüfung von Informationen auf Fakes fördern sollen. Daher anläßlich dieses Tages mein Blogbeitrag.
Warum wird es schwieriger, Fakes zu entlarven?
Die generative KI alleine ist da nicht schuldig. Sie macht die gefälschten Fotos oder Video ›nur‹ perfekter und überzeugender. Ich sehe das Problem eher an anderen Stellen.
Weil unser Hirn tickt, wie es tickt
Zum einen liegt ein Faktor darin, wie unser Gehirn ›gestrickt‹ ist. Daniel Kahneman schreibt in seinem sehr lesenswerten Buch »Thinking, Fast and Slow« (2011) über die Entscheidungsprozesse im menschlichen Hirn. Er erklärt, wie zwei konkurrierende Systeme für Entscheidungen sorgen:
- »System 1« ist unser Standardsystem, um schnell, intuitiv und ohne bewusstes Nachdenken reagieren zu können. Das System springt auf Reize automatisch an. Hört ihr beispielsweise unerwartet ein sehr lautes Geräusch, versucht ihr die Quelle zu lokalisieren und seid in Körperspannung. Schönen Gruß von der Evolution: System 1 ist ein Lebensretter.
- »System 2« ist unser analytisches System, das wir aktivieren, um Entscheidungen in Einklang mit unseren Überzeugungen zu treffen oder ungewohnte Aufgaben zu lösen. Zum Beispiel indem wir uns konzentrieren oder unsere Aufmerksamkeit bewusst auf bestimmte Aspekte lenken. Dieses System wird im Vergleich zu System 1 als langsamer und energieaufwändiger charakterisiert.
Diese beiden Systeme haben übrigens nichts mit rechter oder linker Hirnhälfte zu tun.
Warum der Exkurs in unser Hirn? Weil unser Gehirn sehr energiesparend arbeitet. Ihr kennt das: Wenn jemand, den ihr täglich seht, eine neue Brille trägt, fällt es euch nicht auf. Euer Hirn nimmt einfach das, was es die letzten Jahre aus den Sehnerven an Bild konstruiert hat und schaut erst hin, wenn wir es mit System 2 bitten, doch mal genauer hinzuschauen.
Unser Hirn lässt sich schnell zum Standardsystem anregen, und reagiert intuitiv und emotional statt überlegt und mit einigem Nachdenken. Wir fällen schnell Urteile, obwohl wir nicht über genügend Daten verfügen, um eine fundierte Entscheidung treffen zu können. Unser Hirn verlässt sich dabei auf falsche Suggestionen oder zu starke Vereinfachungen, um klaffende Lücken in den gebotenen Informationen zu füllen.
Wir sprechen von Bias (Verzerrungen) bei Künstlicher Intelligenz. Ein ähnliches Phänomen beschreibt Kahneman im menschlichen Gehirn: Die Tendenz, Informationen zuzustimmen, die zu bereits vorhandenen Überzeugungen passen (»confirmation bias«).
Und das kann und wird ausgenutzt: Werden Informationen wiederholt und/oder einprägsamer gestaltet, wirken sie überzeugender. Das nutzt aus, dass unser Hirn positiv reagiert, wenn es wiederholt mit denselben klaren Botschaften konfrontiert wird. Erkennen wir etwas Vertrautes, geraten wir in einen Zustand der kognitiven Leichtigkeit (»cognitive ease«). Katastrophen und andere dramatische Ereignisse fanden und finden statt. Das. Durch eindrucksvolle Fotos und Videos sowie wiederholte Darbietungen überschätzen Menschen deren statistische Wahrscheinlichkeit. Wir lassen uns von statistisch betrachtet vergleichsweise seltenen Ereignissen beeinflussen, über die in den Medien oder Social Media überzogen berichtet wird.
Zur Vertiefung: Der Psychologe Daniel Kahneman – Warum wir uns oft falsch entscheiden (swr2)
Dialemma: Salonfähiges Clickbait
Je verzerrter, desto ›Click‹. Damit sind wir beim nächsten Problem für das unreflektierte Annehmen von Fakes. Täglich umtosen uns aus den verschiedensten Medien – print oder online – polarisierende Meinungen. Inzwischen ist es völlig belanglos, ob es sich um eine Social Media-Plattform oder ein vormals der seriösen Medienlandschaft zugerechnetes Magazin / Druckwerk handelt. Das Haschen um Aufmerksamkeit mit allen Mitteln ist das neue ›Normal‹, es ist salonfähig, und das wirkt sich auf uns alle aus.
Ständig werden wir mit dieser Art Informationen gefüttert, die langfristig unser ›System1‹ beeinflussen:
- TV-Talkshows mit exponierten Meinungsführer/innen, die in Beton gegossene Positionen im Schwarz-Weiß-Schema austauschen statt miteinander zu diskutieren (siehe Diskutieren – ein Dialemma);
- Menschen, die via Messenger zeitversetzt ihre Statements abgeben statt miteinander in Echtzeit zu sprechen und schlagfertig zu verhandeln;
- Instagram-, Snapchat-, TikTok oder YouTube-›Stars‹, die sich und ihren ›Alltag‹ medienwirksam in Szene setzen.
Vor ein paar Jahren schrieb ich noch, wenn wir breitenwirksam Medienkompetenz im Umgang mit Social Media aufbauen, dann liegt es an uns, wie wir das Medium Social Media gestalten. »Social Media – der Mensch macht’s« – das war 2018. Inzwischen gilt das so nur noch in Bruchteilen.
Zum Faktor Medienkompetenz stehe ich weiterhin. Daher auch meine Aktivitäten, sich mit generativer KI zu befassen und entsprechende Kompetenzen zu erwerben.
Die Aufmerksamkeitsökonomie jedoch ist in vollem Gange. Dem Gebaren der Plattformen und Werbungsmechanismen gebieten wir als Einzelne keinen Einhalt. Wir können uns jedoch in digitaler Selbstverteidigung üben, um weniger von den Algorithmen beeinflußt zu werden:
- Das bedeutet, FOMO – Fear of Missing Out – auszuhalten, weil dafür die automatischen Benachrichtigungen ausgeschaltet werden.
- Das erfordert mehr Systematik in der Organisation von Kontakten in thematischen Listen (so es die Plattform erlaubt).
- Es ist Mehraufwand daran zu denken, hin und wieder aktiv die Profile von Menschen aufzurufen, denen wir aus inhaltlichem oder persönlichem Interesse folgen.
Es lohnt sich.
Wie können wir Fakes erkennen?
Wichtige Institutionen im Web, die uns helfen, Fakes zu entlarven
Herzliches Dankeschön an:
- Correctiv Faktencheck https://correctiv.org/faktencheck
- Faktenfuchs https://www.br.de/nachrichten/faktenfuchs-faktencheck
- Mimikama – zuerst denken, dann klicken https://www.mimikama.org
- International Fact Checking Network (IFCN) https://www.poynter.org/ifcn/
Faktencheck-Datenbank speziell zur Europawahl 2024
- Elections 24 Check https://elections24.efcsn.com • »The first of its kind database that gathers and categorises fact-checked information for European countries and citizens ahead of the 2024 European Elections. It has been created in collaboration between over 40 European fact-checking organisations and the European Fact-Checking Standards Network, supported by the Google News Initiative. In the database, you will find political fact-checks, disinformation debunks, prebunking articles and narrative reports on transcontinental trends detected with the help of the database.«
Hier findet ihr interaktive Formate, mit denen ihr Augen & Ohren aufmerksam machen oder testen könnt:
- Erkennen von Audio-Fakes im Quiz »Audio Deepfake Demonstrator« der Fraunhofer AISEC https://deepfake-demo.aisec.fraunhofer.de
- »Bilderrätsel: Echt oder KI?« bei Mimikama https://www.mimikama.org/mimikama-bilderraetsel-echt-oder-ki
- »’Fake News‘ erkennen lernen: Unterrichtsmaterial für die Schule« von NDR https://www.ndr.de/ratgeber/medienkompetenz/Fake-News-erkennen-lernen-Unterrichtsmaterial-fuer-die-Schule,fakenews218.html
Zur weiteren Befassung mit Fakes & KI empfehle ich euch diese Links:
- »#15 Fakt oder Deepfake? – Desinformation in Zeiten generativer KI«, Podcast KI Kapiert https://ki-kapiert.podigee.io/16-new-episode
- »Bildmanipulation mit KI: Kann ich gefälschte Fotos künftig noch erkennen?«, Deutschlandfunk https://www.deutschlandfunk.de/bildmanipulation-mit-ki-kann-ich-gefaelschte-fotos-kuenftig-noch-erkennen-dlf-095363e7-100.html
- »Deepfakes: Virtuelle Täuschungen in der digitalen Welt. Ein Einblick in die faszinierende und beunruhigende Welt der Deepfake-Technologie«, Mimikama https://www.mimikama.org/deepfakes-taeuschungen-in-der-digitalen-welt/
- »Deepfakes – Gefahren und Gegenmaßnahmen«, BSI https://www.bsi.bund.de/DE/Themen/Unternehmen-und-Organisationen/Informationen-und-Empfehlungen/Kuenstliche-Intelligenz/Deepfakes/deepfakes_node.html
- »Did AI Generate This Photo? Here’s How To Tell«, Mozilla Foundation https://foundation.mozilla.org/en/blog/ai-photo-how-to-tell/
- »KI-generierte Bilder: 40 % erkennen Fakes nicht«, Mimikama https://www.mimikama.org/ki-generierte-bilder-erkennen-schwierig/
PS. Im aktuellen Buchmanuskript um meine Hauptfigur Fiona geht es auch um ein Deepfake-Video, das sie diffamieren soll. Selbstverständlich wird es wie »Heiter bis wolkig in Digitalien« ein unterhaltsamer Roman mit vielen Links zur tieferen Beschäftigung.
Illustration: DoSchu mit canva.com




1 thought on “Nur April? • Generative KI & Fakes”