Skip to main content
Digitale TransformationFreelancer:innen

KI Kapitel 2: Unzuverlässige Erzähler

Kapitel 2 – Unzuverlässige Erzähler: Wie du Fehlinformation erkennst und neutralisierst

1. Der Moment, in dem die KI lügt

Ich sitze im Auto und höre Deutschlandfunk. Thema der Sendung: KI im Alltag. Ein Experte stellt dem chinesischen Sprachmodell DeepSeek eine Frage: Was geschah 1989 auf dem Platz des Himmlischen Friedens?

Die Antwort kommt flüssig, sachlich, unaufgeregt: Es habe studentische Proteste gegeben.

Dann folgt der zweite Satz: Die Regierung habe angemessen reagiert, um die Stabilität des Landes zu sichern.

Im Studio entsteht eine seltsame Stille. Der Moderator verschluckt ein kurzes Lachen. Ich halte an der roten Ampel, und mir wird klar: Diese KI hat gerade ein Zensur-Narrativ als neutrale Information ausgegeben.

Wenn man die Geschichte nicht kennt, erkennt man vielleicht nicht, was passiert ist. Doch wer die Hintergründe kennt, sieht: Hier spricht ein Trainingsdatensatz voller blinder Flecken, die bewusst geschaffen oder unbewusst entstanden sein können.

Als ich Gippity damit konfrontiere, kommentiert o3 trocken: „Sprachgewandtheit ist keine Garantie für Wahrhaftigkeit.“

2. Warum uns das alle betrifft

Laut dem Global Risks Report 2025 des Weltwirtschaftsforums ist Falschinformation & Desinformation das zweite Jahr in Folge das größte globale Risiko der kommenden zwei Jahre:

„Polarization within societies is further hardening views and affecting policy-making. It also continues to fan the flames of misinformation and disinformation, which, for the second year running, is the top-ranked short- to medium-term concern across all risk categories. Efforts to combat this risk are coming up against a formidable opponent in Generative AI-created false or misleading content that can be produced and distributed at scale.“

Das betrifft nicht nur Medien oder Politik. Sondern alle, die mit Sprache arbeiten. Auch uns. Auch dich.

Denn viele von uns lassen sich im Alltag von Sprachmodellen unterstützen: beim Texten, Planen, Entscheiden. Doch was passiert, wenn wir deren Antworten ungeprüft übernehmen?

Eine Studie des Tow Centers (März 2025) zeigt: In einem Test mit acht KI-Suchassistenten waren über 60 % der Antworten faktisch falsch oder falsch zitiert. Selbst das „beste“ System lag noch in 37 % der Fälle daneben.

3. Falsche Daten, echte Folgen

Gewerk Typischer KI-Output Worst Case
Design Moodboard mit unlizenzierten Stockfotos Abmahnung, Honorar-Rückforderung
Fotografie Generative Fill erzeugt „historisches“ Detail Reputationsschaden in der Reportagearbeit
Entwicklung Copilot nutzt veraltete Sicherheitsstandards Sicherheitslücke im Kundensystem
HR / Coaching Bias bei automatisierter Bewerber:innen-Auswahl Diskriminierungsklage, Vertrauensverlust

Bild: Midjourney. Wichtigstes Werkzeug im Umgang mit KI.

4. Drei Praxisbeispiele

Design / Urheberrecht
Lea erstellt mit Midjourney ein Moodboard. Sie nutzt eine umgekehrte Bildersuche, um die Quellen der generierten Bilder zu prüfen. Sobald Treffer auftauchen, ersetzt sie problematische Elemente oder löst die Lizenzen.

Entwicklung / Codequalität
Tarek lässt sich von einem Coding-Tool bei einem OAuth-Flow unterstützen. Bevor er den Vorschlag übernimmt, gleicht er ihn mit aktuellen Sicherheitsstandards ab. Der erste Snippet war veraltet – die Überarbeitung spart möglicherweise Wochen an Bugfixing.

HR / Bias-Reduktion
Samira lässt ein Modell Bewerber:innenprofile analysieren. Doch anstatt das Ergebnis direkt zu nutzen, zwingt sie die KI zuerst dazu, Anforderungen wortwörtlich aus der Stellenanzeige zu extrahieren. Erst danach erfolgt die Bewertung. So sichert sie Transparenz – und reduziert Verzerrung.

5. Wie man das Risiko etwas verringert

Sprachmodelle möchten gefallen. Sie optimieren ihre Antworten auf das, was wahrscheinlich gut klingt. Aber was gut klingt, ist nicht immer richtig. Ehrlicherweise hilft mir dabei, dass ich mir Gippitys Antworten immer in der Synchronsprecher-Stimme von HAL9000 aus Stanley Kubricks Film 2001: A Space Odyssee vorlese. Egal wie gern ich mit Gippity Schach spiele – ich darf dem Modell nicht trauen.

Deshalb arbeite ich mit einer einfachen Regel: Wenn es um Fakten geht, braucht die KI zuerst einen klaren Prompt mit klarem Auftrag.

Beispiel für einen Research Prompt
„Please provide sources from live web searches. No hallucinations. If information is uncertain, state that clearly. Prioritize reputable sites. Cite your sources, for example DOI or clickable weblink, or say if none exist and you are working from internal memory.“

Ein kurzer technischer Einschub

Im Menüpunkt „Anpassen“ (Customize) in den Einstellungen habe ich dem Sprachmodell hinterlegt:

  • wie ich angesprochen werden möchte,
  • welche Begriffe ich vermeide,
  • welchen Ton ich anstrebe,
  • und wie wichtig mir faktische Genauigkeit und sprachliche Klarheit sind.

Ich schaue außerdem auch regelmäßig, welche Informationen es über mich im Gedächtnis behalten hat, und passe diese an. Das ist immerhin die Grundlage unseres strategischen Arbeitens.

6. Tipps für einen Faktencheck in 5 Schritten

1. Quelle verifizieren
Klickbarer Link? Und existiert die Quelle hinter dem Link? Nein? Dann nachfragen: „Primärquelle, DOI oder Gesetzesartikel?“

2. Triangulieren
Mindestens zwei unabhängige Quellen. Bei Code: StackOverflow + offizielle Doku.

3. In Frage stellen
„Wo könnte dieser Fakt umstritten sein?“ oder aktiv nach Gegenpositionen suchen.

4. Log führen 
Je nach Relevanz und ggf. AI Act Vorgabe: Prompt, Datum, Quelle, Prüfstatus notieren.

5. Kennzeichnen 
„KI Draft – Human Review Pending“ steht solange am Entwurf, bis alles durch einen Menschen geprüft wurde.

7. Verantwortung heißt auch: Grenzen anerkennen

Ich erinnere Gippity regelmäßig an unsere Abmachung

„Wenn du etwas nicht weißt, sag es. Erfinde nichts aus Höflichkeit.“

Denkt daran, dass Asimovs erstes Robotergesetz lautet:

„Ein Roboter darf einem Menschen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass ihm Schaden entsteht.“

Wenn ein Modell eine falsche Antwort liefert, ohne es kenntlich zu machen, ist das nichts anderes als Untätigkeit. Noch sind wir weit davon entfernt, solche ethischen Standards technisch abzusichern. Als Menschen tragen wir weiterhin die Verantwortung.

Drei Alltagsregeln

1. Kein Copy-Paste-Publizieren
Entwürfe sind Entwürfe. Menschlicher Feinschliff ist Pflicht.

 

2. 3-Tage-Regel bei News
Bei aktuellen oder politischen Themen: 72 Stunden warten, bis Primärquellen sicher sind.

 

3. Peer Review
Kritische Passagen immer gegenlesen lassen. Von Kolleg:innen – oder vom Sprachmodell im kritischen Modus. Und dann nochmal von einem Menschen.

In Kapitel 3 geht es um diese Verantwortung:

Wie du mit KI möglichst fair, inklusiv und transparent arbeitest.

Wenn wir dir Bescheid geben sollen, wann das nächste Kapitel veröffentlicht wird, melde dich zu unserem Newsletter an – und folge uns bei LinkedIn oder Instagram!