Halluzination (KI)
Halluzination bezeichnet die Ausgabe erfundener, unzutreffender oder irreführender Inhalte durch ein KI-Modell, die sprachlich stimmig wirken, aber nicht durch verlässliche Quellen, Daten oder den gegebenen Kontext gedeckt sind.
Große Sprachmodelle (LLMs) können Texte erzeugen, die sprachlich überzeugend wirken, aber inhaltlich nicht korrekt oder nicht belegbar sind.
Halluzinationen
In der Künstlichen Intelligenz – insbesondere bei großen Sprachmodellen (LLMs, Large Language Models) – spricht man von Halluzinationen, wenn ein Modell Informationen generiert, die nicht aus zuverlässigen Quellen ableitbar sind oder dem bereitgestellten Kontext widersprechen.
Das Problem entsteht, weil Sprachmodelle primär darauf optimiert sind, wahrscheinliche Fortsetzungen von Text zu erzeugen – nicht darauf, Wahrheit im klassischen Sinne zu prüfen. Wenn notwendige Fakten fehlen, mehrdeutig sind oder eine Anfrage sehr spezifisch formuliert ist, kann das Modell dennoch eine flüssige und überzeugende Antwort generieren – inklusive frei erfundener Details.
Halluzinationen sind daher kein „Fehler im klassischen Sinn“, sondern eine Folge der Funktionsweise statistischer Sprachmodelle.
Formen von Halluzinationen
1. Faktenhalluzinationen
Das Modell erzeugt falsche oder frei erfundene Informationen, z. B.:
- falsche Daten oder Jahreszahlen
- unzutreffende Messwerte
- fehlerhafte Definitionen
- nicht existente rechtliche Regelungen
2. Quellenhalluzinationen
Das Modell erfindet scheinbar belegbare Nachweise, etwa:
- Studien oder Fachartikel
- Zitate von Expertinnen oder Experten
- DOI-Nummern
- Links zu nicht existierenden Webseiten
- Gesetzesparagrafen oder Bücher
Diese wirken häufig besonders glaubwürdig, sind jedoch nicht überprüfbar.
3. Kontexthalluzinationen
Das Modell ignoriert oder verändert Angaben aus dem ursprünglichen Prompt, zum Beispiel:
- falsche Namen
- veränderte Randbedingungen
- Vermischung mehrerer Szenarien
- widersprüchliche Annahmen
Gerade bei komplexen Arbeitsanweisungen kann dies zu inhaltlichen Fehlern führen.
4. Überkonfidenz
Die Antwort wird mit hoher sprachlicher Sicherheit formuliert, obwohl Unsicherheit angebracht wäre.
Das Modell weist nicht automatisch auf mögliche Wissenslücken hin.
Bedeutung für den Praxiseinsatz
Im Kontext von Zahnarztpraxen bedeutet dies:
- Inhalte müssen fachlich geprüft werden.
- Medizinische, rechtliche oder abrechnungsrelevante Aussagen dürfen nicht ungeprüft übernommen werden.
- KI sollte als Assistenzsystem, nicht als Entscheidungsinstanz verstanden werden.
Eine kritische Prüfung bleibt stets erforderlich.
Hinweis
Dieser Eintrag dient als Orientierungshilfe.
Bei KI handelt es sich um ein komplexes und sich dynamisch entwickelndes Fachgebiet, bei dem kurze Erklärungen unter Umständen nicht vollständig ausreichend sind. Je nach Fachbereich und technischem Fortschritt können weitere Begriffe und Differenzierungen hinzukommen.
Ein Anspruch auf Vollständigkeit oder absolute Richtigkeit besteht nicht.