Was bedeutet Halluzinieren in der KI?
Antwort vomIn der KI bedeutet „Halluzinieren“ (auch „Halluzination“), dass ein Modell Inhalte erzeugt, die überzeugend klingen, aber sachlich falsch, frei erfunden oder nicht durch die Eingabe bzw. verlässliche Daten gedeckt sind—z. B. erfundene Quellen, falsche Zahlen, nicht existierende Ereignisse oder Details, die das Modell „hinzudichtet“, statt sie sicher zu wissen.