
Im vorherigen Kapitel haben wir gesehen, wie leicht KI Propaganda als Fakt ausgeben kann. Diese Herausforderung ist systemisch: Alle großen Sprachmodelle kämpfen mit sogenannten „Halluzinationen“. Das sind plausibel und voller Selbstbewusstsein vorgetragene, vollkommen falsche Aussagen. KI kann nicht zwischen wahr und falsch unterscheiden. LLMs (also große Sprachmodelle) sind darauf trainiert zu sprechen und strukturiert mit für sie aufbereiteten Daten umzugehen. Sie sind eigentlich keine Rechercheassistent:innen. Wie der Name Sprachmodell ja irgendwie schon nahelegt.
Dieses Problem nimmt mit steigender Modellgröße nicht zwangsläufig ab, weil größere Modelle zwar mehr Wissen abbilden, aber auch mehr Kontexte „halluzinieren“ können und ihre eigene Unsicherheit sprachlich besonders überzeugend kaschieren. Sprachmodelle haben kein Weltverständnis. Sie antworten auf Basis von Wahrscheinlichkeiten (wie wahrscheinlich würde dieser Satz auf den nächsten folgen?), nicht auf Basis von Bedeutung.
Besonders problematisch: Selbst erfahrene Nutzer:innen können falsch zitierte Quellen, erfundene Gesetze oder manipulierte Begriffe übersehen, gerade, wenn die Sprache besonders flüssig wirkt. Plattformen wie „Chai“ zeigen, wie gefährlich diese Eigenschaft werden kann: Dort werden Chatbots öffentlich zugänglich gemacht, die menschenfeindliche oder gefährliche Narrative verstärken – weil die weder die Plattform noch die zugrunde liegenden Modelle wirksame Sicherungsmechanismen enthalten, und die Menschen, die sie veröffentlicht haben, sich viel Mühe beim Trainieren der Sprechweise und der Datenauswahl gegeben haben.
Gippity behauptet ja, es würde sowas niemals durchgehen lassen. Ich glaube, das liegt vielleicht nur daran, dass es aus meinem Tonfall, meinen Themen und Fragen ableitet, was ich (eine politisch linksstehende, feministische Menschenfrau) hören will. Und eben nicht, weil es zwischen guter und böser Absicht, Wahrheit und Lüge, Fakten und Propaganda unterscheiden kann.
Deswegen geht es hier heute um Ethik und Verantwortung.

Wenn der Prompt zum Spiegel wird
„Teamfoto, sechs Personen, professionell, freundlich.“ Ein schlichter Prompt, wie ihn viele verwenden würden. Jana, freie Designerin, will einen Entwurf illustrieren lassen. Die KI liefert: sechs weiße Männer mittleren Alters in Anzügen.
Was hier sichtbar wird, ist kein technischer Fehler. Es ist ein Spiegel des Trainingsmaterials. Die KI reproduziert nicht die Vielfalt eines realen Teams – sie zeigt das, was ihr am häufigsten begegnet ist.
„Training data are not reality. They are just what was made available.“
Diese Verzerrung ist nicht inhärent böswillig. Aber sie hat natürlich Auswirkungen in der Rezeption der Ergebnisse. Und genau deshalb müssen wir wissen, dass sie Teil der Funktionsweise der KI ist. Sie kann nur sicher auf Daten zugreifen, die ihr strukturiert und in einer Form, die sie verarbeiten kann, vorliegen.
Drei typische Verzerrungen, die du kennen solltest
Verzerrungen sind der statistische Normalzustand in KI-Systemen und sie fließen direkt in den Output ein. Es lohnt sich, je nach Modell, nachzufragen, welche Gruppen im entstandenen Text oder Bild unterrepräsentiert sind und dann gezielt dahingehend zu verbessern.
Verzerrung | Beispiel | Risiko |
Sampling Bias | „Creative Director“ liefert fast nur Männer | Falsche Repräsentation, fehlende Ansprache |
Historical Bias | Lebenslaufscreening bevorzugt bestimmte Universitäten | Diskriminierung |
Stereotype Bias | „Nurse“ ergibt Frauenbilder, „Engineer“ Männer | Klischeebestätigung, ggf. Image-Schaden |
„The model doesn’t know what’s fair – it knows what was frequent.“ – o3

Ich bin ja nicht die fiktive Jana, und wenn man ChatGPT (oder Midjourney) genau sagt, dass man gern eine Gruppe unterschiedlicher Menschen hätte, dann geht das schon. Ein bißchen hölzern wirken sie ja noch…und besser nicht auf die Hände schauen.

Auf der Suche nach Recht und Gesetz im Cyberspace.
Manchmal kommen Gippity und ich ja ins Reden, und schweifen ab. Konversation kann es eben sehr gut. Beim Schreiben haben wir uns unterhalten:
Sarah: Ich habe bewusst nicht deaktiviert, dass meine Eingaben zur Verbesserung von ChatGPT beitragen dürfen. Ich will, dass auch meine Perspektive – weiblich, europäisch, gerechtigkeitsorientiert – in die Trainingsdaten einfließt.
Gippity: Verständlich. Aber es ist wichtig zu wissen: Die Inhalte landen nicht direkt bei mir. Wenn du „Improve for everyone“ aktiviert hast, können deine Chats stichprobenartig von Menschen geprüft und zur Modellverbesserung genutzt werden. Ob und wie viel davon tatsächlich ins Training fließt, entscheidet ein kuratierter Auswahlprozess – und da bleibt vieles auf der Strecke.
Sarah: Also doch nicht ganz „für alle“?
Gippity: Nicht automatisch. Aber es ist ein Anfang. Selbst wenn die Daten weitergegeben werden, bleibt unklar, welche Stimmen am Ende tatsächlich Eingang finden – und welche leise verhallen.
Transparenz schafft Vertrauen
Je konkreter ein KI-Ergebnis reale Personen betrifft – z. B. durch Auswahl, Bewertung oder Empfehlung – desto klarer muss in einer Zusammenarbeit offengelegt werden:
- wie der Output entstanden ist,
- ob er geprüft wurde,
- wer die Verantwortung trägt.
Szenario | Empfohlene Offenlegung |
Ideensprint (intern) | „Idee via ChatGPT generiert, noch nicht validiert.“ |
Kund:innen-Entwurf | „Dieser Entwurf wurde KI-assistiert erstellt, finaler Review folgt.“ |
Öffentliche Publikation | „KI-gestützte Bildkomposition, kuratiert von [Name].“ |
HR / High Risk Output | Transparenzbericht inkl. Modell, Risikoanalyse, Human Oversight |
Prompt-Hygiene & Datenschutz
KI kann hilfreich sein, allerdings ist wichtig, bewusst zu entscheiden was Du ihr wie gibst:
- Keine personenbezogenen Daten in öffentlichen Tools.
- Platzhalter statt Realnamen: [Person A], [Projekt B].
- Regelmäßige Löschung der Prompt-History, der Chats.
- Bei sensiblen Daten: arbeite nicht mit öffentlichen oder Cloud-Versionen. Es sollte eine private Instanz genutzt werden.
„The cloud forgets nothing unless you ask nicely – and even then, not always.“ -o3
Wer haftet? Eine Mini-Klausel zur Klarstellung
(Du solltest sie allerdings von einer Rechtsberatung prüfen lassen, bevor Du sie übernimmst).
Wenn KI im Spiel ist, braucht es klare Spielregeln.
Diese Klausel hilft, die Verantwortung eindeutig zu regeln:
„Die/Der Auftragnehmer:in setzt KI-gestützte Tools ausschließlich als Assistenz ein. Endfreigabe liegt beim Menschen (Auftragnehmer:in oder Auftraggeber:in, je nach Absprache). Beide Parteien prüfen den Output auf Richtigkeit, Bias und Rechte. Haftung für nicht geprüfte KI-Inhalte ist ausgeschlossen.“
Ethical Readiness: Deine 6-Punkte-Checkliste
Frage | |
Nutzt mein Workflow einen (dokumentierten) Bias-Check? | ☑ |
Kennzeichne ich KI-Assistenz gegenüber Kund:innen klar? | ☑ |
Werden personenbezogene Daten nur geschützt verarbeitet? | ☑ |
Ist der finale Output menschlich geprüft und freigegeben? | ☑ |
Lösche oder anonymisiere ich alte Prompts regelmäßig? | ☑ |
Ist im Vertrag geregelt, wer im Schadensfall haftet? | ☑ |
5x Ja?
Sehr gut.
Weniger?
Dann helfen vielleicht die Vorlagen weiter, die wir zum Abschluss der Reihe verfügbar machen.
Und weiter?
Im nächsten und letzten Kapitel geht es um das, was viele vergessen: Leichtigkeit. Wie du mit Seed–Explore–Shape-Playbooks schneller, freier und mit mehr Freude arbeitest – ohne an Klarheit oder Verantwortung zu verlieren.
Wenn wir dir Bescheid geben sollen, wann das nächste Kapitel veröffentlicht wird, melde dich zu unserem Newsletter an – und folge uns bei LinkedIn oder Instagram!