•
LLMs werden niemals eigenständig große Codebasen verstehen oder zuverlässig wissen, was sie nicht wissen. Sie sind zwar hilfreich beim Lehren und Beantworten von Fragen, scheitern jedoch an grundlegend neuen oder komplexen Fragestellungen, die ein echtes Weltmodell erfordern.
•
Große Sprachmodelle sind keineswegs eine Gefahr für menschliche Intelligenz, sondern eher nützliche Tools. Die KI-Branche und Nutzer werden sich an die Technologien anpassen. Künstliche Allgemeine Intelligenz (AGI) bleibt fern, und aktuelle Modelle haben fundamentale Grenzen, trotz ihres beeindruckenden Erscheinens.
•
OpenAI hat nach sechs Jahren mit gpt-oss architektonisch neue Wege beschritten und verwendet 32 große Experten statt hunderter kleinerer, anders als bei Konkurrenzmodellen. Techniken wie alternierende Sliding-Window-Attention und MXFP4-Quantisierung gleichen die Leistungsfähigkeit größerer Modelle aus.
•
GPT-5 liefert für den Massenanwender mehr Wert, ohne jedoch hochkomplexes Denken zu fördern. Das Modell arbeitet transparent für die Nutzer, die sich nicht um die Auswahl kümmern müssen. OpenAI fokussiert dabei besonders auf Geschwindigkeit, Kosten, Latenz und Zuverlässigkeit.
•
OpenAI nutzt MXFP4, ein neues Datenformat, das Speicher- und Rechenaufwand deutlich verringert. Dadurch können Modelle mit 120 Milliarden Parametern auf GPUs mit 80GB VRAM oder kleinere Versionen auf nur 16GB laufen. Die gpt-oss-Modelle sind Vorreiter in der Nutzung dieses Formats.
•
Perplexity beschreibt die technische Integration der gpt-oss-20b und 120b Modelle in ihre ROSE Inferenzengine. Dabei wurden Anpassungen an Kernel und Quantisierung vorgenommen, während nur geringe Infrastrukturänderungen für nicht-FP4-Hardware nötig waren.
•
Nach Kritik von Nutzern, die GPT-4o vermissten, hat OpenAI dieses Modell in ChatGPT wieder optional verfügbar gemacht. Nutzer schätzen GPT-4o für seine Persönlichkeit und Vielseitigkeit. Plus-Nutzer können nun zwischen GPT-4o und GPT-5 wählen. OpenAI-CEO Sam Altman kündigte an, die Leistung und Transparenz von GPT-5 zu verbessern.
•
Das neue Grok-Modell V7 ist fertig vortrainiert und wird nativ multimodal sein, mit direkter Audio- und Videobearbeitung. Es kann Spiele im One-Shot-Modus generieren, das Geschehen auf dem Bildschirm verstehen und Code anpassen, um Optik und Spielbarkeit zu verbessern.
•
Cursor und GitHub Copilot generieren fast 25 % von Anthropics Einnahmen. OpenAI startete GPT-5 mit deutlich günstigeren Preisen, was die Premium-Position von Anthropic gefährden könnte. Dieser Preisdruck wird den Verhandlungsprozess mit Unternehmenskunden beeinflussen und die Marktposition von Anthropic bedrohen.
•
Windsurf erreichte innerhalb von 8 Monaten 82 Mio. $ Jahresumsatz und galt als eines der am schnellsten wachsenden SaaS-Unternehmen. Dennoch verkauften die Gründer es für unter dem Doppelten des Umsatzes, da das Geschäftsmodell auf unbeabsichtigten Subventionen beruhte. Am wertvollsten war das Training von Entwicklern zur Erstellung von KI-Codierungsmodellen.