Die Halluzinationen von Sprachmodellen entstehen, weil aktuelle Bewertungsmethoden wilde Vermutungen belohnen, die gelegentlich richtig sind, anstatt mangelndes Wissen zuzugeben. Eine einfache Lösung ist, während des Trainings die Belohnungen anhand der Sicherheit zu kalibrieren: Fehler, bei denen Modelle sich sicher irren, stärker bestrafen und Teilpunkte vergeben, wenn sie Zweifel ausdrücken.
