
Populäre KI-Modelle wie ChatGPT werden ihr Problem nicht los, im Zweifelsfall Fakten zu erfinden, Halluzination nennt man das. Doch es gibt eine Reihe simpler Gegenmaßnahmen, sieben erklären wir Dir hier.
OpenAI, das Unternehmen hinter ChatGPT, hat einen aktuellen Report dazu vorgelegt, warum Künstliche Intelligenz (KI) zum halluzinieren neigt: Bevor ChatGPT, Gemini, Grok und Co. zugeben würden, eine Frage nicht korrekt beantworten zu können, erfinden sie lieber etwas, so der Tenor. Selbst den Titel der Doktorarbeit und das Geburtsdatum eines der Autoren dieser Studie konnte KI-Modelle nicht treffsicher benennen und wichen deshalb auf Halluzinationen aus, heißt es weiter. Die KI-Modelle seien darauf trainiert, Antworten wie „Ich weiß nicht“ zu vermeiden. Das Problem Halluzinationen bei ChatGPT und seinen Herausforderern wird also nicht so schnell verschwinden – aber wir geben Dir hier sieben Methoden zur Hand, mit denen Du gegensteuern kannst:
1. Befehle Deinem KI-Modell mit einen Prompt wie „Antworte nur, wenn Du Dir zu mindestens 90 Prozent sicher bist. Sage ansonsten „Ich weiß es nicht.““ Oft hilft das bereits, aber einige KI-Modelle begreifen solche Anweisungen leider nur als Empfehlungen.
2. Manche KI-Modell haben mittlerweile Einstellungen wie „Temperatur“, mit denen Kreativität aka Halluzinationen geregelt werden kann. Hier dann den niedrigsten Wert wählen. Und falls es die Option gibt, „strenge Sachlichteit“, „nur faktenbasiert“ oder ähnliches anzuklicken, sollte das auch nützlich sein.
3. Baue immer „Gib Quellen an“ in deine Fragen an die Künstliche Intelligenz mit ein. Falls die Quellen nicht geliefert werden oder auf erfundene Webseiten verweisen, weißt Du: Hier halluziniert die KI gerade.
4. Formuliere Deine Fragen sehr deutlich. „Liste mir drei Peer-Review-Studien zum Thema xx auf“ ist viel besser als „Erzähle mir etwas zum Thema xx“ – denn hier kann die KI nicht ausweichen.
5. Scheue nicht vor Cross-Checks zurück. Falls mehrere Ki-Modell oder Suchmaschinen eine Frage gleich beantworten, wird die Angabe stimmen. Wenn eine KI anderer Meinung ist, halluziniert sie wahrscheinlich.
6. Sei auf der Hut vor zu viel Selbstbewusstsein bei Deiner KI. Oft ist eine besonders überzeugt formulierte Antwort von ChatGPT und Co. der erste Warnhinweis vor Halluzination oder einem Bluff.
7. Generell gilt: Vertraue aber kontrolliere. Wer KI-Ergebnisse mit Copy-Paste einfach in Code, Verträge, Stellungnahmen oder ähnliches einfügt, handelt fahrlässig. Künstliche Intelligenz gibt Dir einen Entwurf an die Hand, nicht mehr.
Fazit: ChatGPT und KI Halluzinationen austreiben – gar nicht so schwer
Gerade bei Fragen zu neuen Kryptowährungen haben wir schon oft beobachtet, dass Künstliche Intelligenz sich Antworten aus den Fingern saugt anstatt mit einem „Ich weiß es nicht“ zu reagieren. Da sind Whitepaper oder Angaben auf Webpräsenzen unklar mit Angaben, aktuelle Quellen widersprechen sich, selbst gewollte Unvollständigkeit kommt vor – was jeweils genau dahinter steckt, ist im Endeffekt gar nicht wichtig. Mit unseren sieben Tipps gegen Halluzinationen bei KI-Modellen von ChatGPT über Gemini bis Grok kannst du Dir wesentlich sicherer sein über die Qualität der Antworten, die Dir Künstliche Intelligenz im Alltag liefert. Probier sie einfach aus und integriere sie in Deinen Umgang mit Artificial Intelligence.
Hinterlasse jetzt einen Kommentar