Das mache ich doch immer, magst du jetzt einwenden. Immer!? Ist es nicht viel verführerischer, KI zu nutzen und Teile unserer Aufgaben komplett an sie zu übertragen? Bekommen wir nicht stets den Rat, loszulassen und zu delegieren? Risiko ‚Bot-Papagei‘, sag ich da nur. Wenn zum Beispiel ‚Kollegin KI‘ schnell eine Empfehlungsliste für Bücher in den Sommerferien zusammenstellt – was kann da schiefgehen?
Doris Schuppe • Der Beitrag KI smart nutzen: Augen auf – Hirn an! erschien zuerst im Blog DoSchu.Com.
Zu diesem Beitrag wurde ich durch einen krassen Fall von leichtfertiger Übernahme eines KI-Rechercheergebnis in einen Zeitungsartikel angeregt. Tja, wie viel Vertrauen in die Antworten eines KI-Chatbots ist in Ordnung? Wann machen wir uns zum ‚Bot-Papagei‘?
Aber erst erzähle ich dir von einer interessanten Begebenheit, die ich letzte Woche hier in meinem Coworking Space im Südosten Mallorcas erlebte.
Es spazierte eine junge Frau zur Tür herein und fragte:
„Can I use one of your computers for a call?“
(Kann ich einen eurer Computer für eine Videokonferenz nutzen?)
Ich habe sie erst mal sehr verwirrt angeschaut. Daher setzte sie nach:
„Well, ChatGPT sent me to your place, because you offer this service.“
(Na ja, ChatGPT hat mich hierhergeschickt, weil ihr diesen Service anbietet.)
Okay! Ich erklärte der jungen Frau, dass wir im Coworking Space jeweils am eigenen mitgebrachten Laptop arbeiten.
Hartnäckig insistiere sie mit vorwurfsvollem Ton:
„But ChatGPT sent me to your space!“
(Aber ChatGPT hat mich zu eurem Space geschickt!)
Die Information der KI schätze sie höher ein als meine Antwort vor Ort.
Das fühlte sich schon sehr merkwürdig an, sag ich dir! Wir haben dann eine Lösung für sie gefunden, damit sie ihr unvorhergesehenes Bewerbungsgespräch in ihrem Urlaub professionell führen konnte.
Nun wollte ich doch wissen, wieso ChatGPT auf diese Idee kam.
Denn ja, die ersten sechs Jahre hatten wir den Service PC-Notfall auf der Website stehen. Das wurde jedoch nur höchst selten abgerufen. Die Inhalte dazu gelöscht. Aber hossa: Die Service-Seite ist zwar nicht mehr da, aber in einer der FAQs wies noch ein Halbsatz darauf hin. Danke ChatGPT für den Hinweis!
Warum fiel mir die Story ein?
Durch den Fall, in dem ebenso der Glaube an das Ergebnis einer generativen KI-Anwendung eine Rolle spielt. In einem Beitrag von AP News wird geht es um einen typischen Sommerartikel in Zeitungen, Magazinen oder Zeitschriften. Du kennst das: Nimm diese 10 Bücher mit in den Urlaub oder so.
Die Schlagzeile zu dem ‚Fail‘ lautete:

„Fictional fiction: A newspaper’s summer book list recommends nonexistent books. Blame AI“
(Fiktive Fiktion: Eine Sommerbuchliste einer Zeitung empfiehlt nicht vorhandene Bücher. Schuldig ist die KI; eigene Übersetzung)
Was war hier vorgefallen? AP News beschreibt, wie Sonderausgaben der ‚Chicago Sun-Times‘ und des ‚Philadelphia Inquirer‘ eine Liste mit Buchempfehlungen für den Sommer veröffentlichten. Mehr als die Hälfte der aufgeführten Bücher waren jedoch – frei erfunden! Krass, oder?
Die Schriftsteller:innen existieren, nicht jedoch die Titel. Diese waren von der KI, die der Schreiber des Artikels einsetzte, schlicht erfunden worden.
Was ist falsch an der Titelzeile des AP News-Artikels?
Nein, es geht nicht um Grammatik.
Auch nicht um Wortwahl.
Ganz einfach:
„Blame AI“
(Gebe KI die Schuld; eigene Übersetzung)
Naja, aber die KI hat doch hier versagt und halluziniert, magst du einwenden.
Das ist in dem Fall geschehen, absolut richtig.
Nur: Wer ist verantwortlich für den Inhalt einer Zeitung? Als Lesende erwarten wir –zu Recht– vertrauenswürdige, überprüfte Inhalte. Und keine aus der Statistik von (Buchtitel-) Wortkombinationen erfundene Literaturempfehlungen.
Aus journalistischer Sorgfaltspflicht hätte der Autor die Liste prüfen müssen. Und da wäre rasch bereits aufgefallen, dass es die Titel nicht gibt. Auch ein kurzer Check auf der Seite der Zeitungen wäre sicher nicht falsch gewesen.
Daher ist meine Meinung zu dem Vorfall:
Blame Humans!
Wenn unhinterfragt geglaubt wird, was eine generative KI-Anwendung ersinnt, hat jemand KI nicht verstanden. Bedeutet das, die Person sei zu ungebildet? Nein. Der Autor der Sommerliteraturliste gibt seinen Fehler zu, er hätte nachprüfen müssen, was ihm die KI da servierte. Absolut richtig.
Die Zeitungen zieht sich aus der Verantwortung bequem zurück und verweist auf den Autor. Sie sind in diesem Fall der Ansicht, da sie nicht wussten, dass der Autor mit Unterstützung von generativer KI gearbeitet hat, gingen sie von verifizierten Inhalten aus.
Das ist sicherlich kein Einzelfall. Und in naher Zukunft werden wir noch häufiger von solchen Fails erfahren. Es ist ein unguter Mix an Faktoren, die zu solchen Fehlleistungen führen:
- Überschätzung der Kollegin KI – in neunzig anderen Fällen passte es zuvor vielleicht.
- Mangelndes Wissen über das komplexe Thema generative KI und der innewohnenden Möglichkeit von Verzerrungen und Halluzinationen.
- Arbeit unter Zeitdruck: Schnell, schnell, schnell ‚mal eben‘ dies und das noch erledigen.
- Mangelnde Aufmerksamkeit aufgrund von Erschöpfung am Arbeitsplatz.
- Fehlende Recherchekompetenz zur Überprüfung von Angaben – sicher nicht im konkreten Fall, dennoch durchaus ein Handwerk, das nicht jede:r drauf hat.
Das kennen wir alle:
Zeitdruck und Stress
Eine extrem schlechte Kombination. Dem/r Einzelnen spart die direkte Verwertung generierter Inhalte ohne Hinterfragen oder Überprüfen wertvolle Zeit.
Insgesamt betrachtet aber kostet das sehr viel (Zeit):
- Solche Inhalte kosten vielen Menschen wertvolle Lebenszeit, die sie aufwenden, um …
- zu verstehen, warum sie mit dem Inhalt (wie eine Empfehlung zu einem Buch, das es nicht gibt) nicht weiterkommen,
- Informationen kritisch zu hinterfragen und einem Realitätscheck zu hinterziehen,
- sodann Halluzinationen oder Fehlinformationen zu entdecken / erkennen;
- So ein Content kostet dann noch mehr Personen Zeit, wenn Gegendarstellungen und Richtigstellungen erforderlich werden;
- und schließlich verspielen Medien damit (weiter) ihre Glaubwürdigkeit.
Okay: Solche Fails liefern Futter für viele Schlagzeilen – die eigentlich auch kein Mensch braucht bei drängenderen Fragestellungen der Welt. Es sei denn, sie erkennen die Zusammenhänge und werden aktiv.
Was hilft? Augen auf & Hirn an!
Mit KI-Kompetenz und fundiertem Verständnis arbeiten, wie mit KI-generierten Inhalten beruflich verantwortungsvoll umzugehen ist. Auch unter Zeitdruck.
KI-Kompetenz beschreibt die Fähigkeit, in Grundzügen künstliche Intelligenz zu verstehen und sich im Umfeld der generativen KI zurechtzufinden.
KI-Komopetenz ist im englischen Sprachgebrauch ‚AI Literacy‘.
Was meine ich mit KI-Kompetenz?
- Überhaupt erst mal das Bewusstsein, sich mit der Thematik tiefer zu befassen.
- Dann das Vertrautsein mit den grundlegenden KI-Begriffen wie Maschinelles Lernen, Neuronale Netze, Deep Learning, natürliche Sprachverarbeitung, etc.
- Das Wissen und Erkennen, welche KI-Anwendungen bereits im Einsatz sind – im Kundenservice, Finanzbranche, autonomes Fahren, Fahrassistenzsysteme, etc.
- Bewusstsein von Bias – also mögliche Voreingenommenheiten – der KI-Systeme und -Algorithmen, um entsprechende inhaltliche Verzerrungen zu bemerken.
- Urteilsvermögen zu Glaubwürdigkeit und Zuverlässigkeit von KI-generierten Informationen – auch in Nachrichtenartikeln oder vermeintlich vertrauenswürdigen und Online-Ressourcen, die eine Anwendung benennt.
KI-Kompetenzaufbau
Im beruflichen Umfeld wird KI-Kompetenz bei der Nutzung schon mal auf der Grundlage des EU AI Act gefordert. Insgesamt ist der KI-Kompetenzaufbau genauso wichtig, denn auch privat können Personen – besonders bei empörenden Inhalten – unbewusst zu Sprachrohr und Verteilzentrum von Fehlinformationen oder gezielter Propaganda werden.
Sorry, noch haben wir keinen Bot auf der Schulter sitzen, der uns zuraunt innezuhalten, wenn etwas in dem Text, Foto oder Video seiner kritischen Ansicht nach nicht stimmen kann.
Ach doch, na klar: Das Gehirn in unserem Kopf, den unsere Schultern tragen, sollte das Hinterfragen und Einschätzen ja eigentlich können.
Wie so vieles fällt die KI-Kompetenz nicht vom Himmel sondern braucht Input und Übung.
Zur ersten Schärfung dieser Sinne empfehle ich meinen Fachroman zu generativer KI. Das Buch lesen auch diejenigen mit Erkenntnisgewinn, die nie im Leben ein Fachbuch zu KI anfassen würden. Es ist daher auch ein Angebot für Menschen, die mit KI im privaten Umfeld umgehen.
Dann selbstverständlich Podcasts, Kurse, Anleitungen für das selbstgesteuerte Lernen etc., die den Einstieg und kritische Aspekte von KI niedrigschwellig vermitteln.
Last but not least: Sei kein „Bot-Papagei“
Sehr coole Aktion & Website von Nele Hirsch! Sie möchte Aufmerksamkeit und Bewusstsein dafür schaffen, dass wir uns alle nicht zu Bot-Papageien machen lassen, die alles 1 zu 1 wiedergeben, was eine KI-Anwendung so geniert hat.
»Wer KI wie ein Orakel behandelt, allgemeingültige Wahrheiten hineininterpretiert oder ein KI-Sprachmodell als vermeintliche Autorität zitiert, hat dessen Funktionsweise nicht verstanden.«
Nele Hirsch • https://seikeinbotpapagei.de

Links zu KI smart nutzen: Augen auf – Hirn an!
- AP News Fictional fiction: A newspaper’s summer book list recommends nonexistent books. Blame AI https://apnews.com/article/fake-book-list-ai-newspaper-summer-reading-fcdf454a5b467dad3adfed6ca1a224d2
- Fachroman zu generativer KI https://doschu.com/alles-fake-fiona-ki-buch/
- EU AI Act https://doschu.com/2023/11/ki-guidelines/#eu-ai-act
- Sei kein Bot-Papagei https://seikeinbotpapagei.de
- Weitere Beiträge zu KI smart nutzen https://doschu.com/kategorie/ki-smart/
