LLMs werden niemals eigenständig große Codebasen verstehen oder zuverlässig wissen, was sie nicht wissen. Sie sind zwar hilfreich beim Lehren und Beantworten von Fragen, scheitern jedoch an grundlegend neuen oder komplexen Fragestellungen, die ein echtes Weltmodell erfordern.
