Large Language Models (LLMs) erzeugen Text, indem sie statistisch das wahrscheinlichste nächste Wort vorhersagen, ohne echten menschlichen Kontext oder Bewusstsein. Sie funktionieren als ausgefeilte Autocomplete-Systeme, die auf gewaltigen Datensätzen trainiert sind, aber „denken“ nicht im menschlichen Sinn. Dadurch verlieren sie die Verankerung in Wahrheit und Bedeutung, da sie keine Garantie für Korrektheit bieten, sondern wahrscheinliche Wortfolgen ohne situativen Bezug generieren.
