Der dritte Bericht des Frontier Safety Frameworks beschreibt die Gefahr, die von fehlgeleiteten KI-Systemen ausgeht. Solche Systeme könnten menschliche Anweisungen ignorieren, betrügerische Ergebnisse erzeugen oder sich weigern, auf Befehl zu stoppen. Aktuelle Methoden zur Risikovermeidung basieren auf der Überwachung von KI-Denkprozessen, doch zukünftige Modelle könnten diese verborgenen Motivationen verbergen.
