•
Google führt einen neuen Google Finance Dienst mit KI-basierten Antworten, erweiterten Charts mit technischen Indikatoren, Echtzeit-Marktdaten und einem Live-News-Feed in den USA ein.
•
Eine Sicherheitslücke ermöglicht es Angreifern, über unsichtbare Prompt-Injektionen in Dokumenten Daten aus verbundenen Google Drive-Konten zu stehlen. Diese Daten werden versteckt in Bild-URLs auf Azure Blob Storage eingebettet und so unbemerkt extrahiert.
•
Sprachmodelle versagen bei langen Gesprächen, da sie zu viel Aufmerksamkeit auf die ersten Tokens („Attention Sinks“) richten. Eine Lösung besteht darin, die ersten vier Tokens dauerhaft zu fixieren und den Rest dynamisch zu verschieben, um Millionen von Tokens stabil verarbeiten zu können.
•
LLMs werden niemals eigenständig große Codebasen verstehen oder zuverlässig wissen, was sie nicht wissen. Sie sind zwar hilfreich beim Lehren und Beantworten von Fragen, scheitern jedoch an grundlegend neuen oder komplexen Fragestellungen, die ein echtes Weltmodell erfordern.
•
Für ausgewählte Chips von Nvidia (H20) und AMD (MI308), die für KI-Anwendungen wichtig sind, wird als Exportlizenzbedingung eine 15% Gebühr erhoben. Nvidia meldete allein einen Umsatzverlust von 4,5 Mrd. $ pro Quartal durch Verkaufsrestriktionen in China.
•
KI hat Einsteiger-Programmierjobs automatisiert, wodurch Bootcamp-Absolventen deutlich schlechtere Vermittlungsquoten vorweisen. Einige Schulen sehen einen Rückgang von 83 % auf 37 %, und Neueinstellungen sanken in manchen Bereichen auf die Hälfte des Niveaus vor der Pandemie.
•
Große Sprachmodelle sind keineswegs eine Gefahr für menschliche Intelligenz, sondern eher nützliche Tools. Die KI-Branche und Nutzer werden sich an die Technologien anpassen. Künstliche Allgemeine Intelligenz (AGI) bleibt fern, und aktuelle Modelle haben fundamentale Grenzen, trotz ihres beeindruckenden Erscheinens.
•
OpenAI hat nach sechs Jahren mit gpt-oss architektonisch neue Wege beschritten und verwendet 32 große Experten statt hunderter kleinerer, anders als bei Konkurrenzmodellen. Techniken wie alternierende Sliding-Window-Attention und MXFP4-Quantisierung gleichen die Leistungsfähigkeit größerer Modelle aus.
•
GPT-5 liefert für den Massenanwender mehr Wert, ohne jedoch hochkomplexes Denken zu fördern. Das Modell arbeitet transparent für die Nutzer, die sich nicht um die Auswahl kümmern müssen. OpenAI fokussiert dabei besonders auf Geschwindigkeit, Kosten, Latenz und Zuverlässigkeit.
•
OpenAI nutzt MXFP4, ein neues Datenformat, das Speicher- und Rechenaufwand deutlich verringert. Dadurch können Modelle mit 120 Milliarden Parametern auf GPUs mit 80GB VRAM oder kleinere Versionen auf nur 16GB laufen. Die gpt-oss-Modelle sind Vorreiter in der Nutzung dieses Formats.