•
anyclaude ermöglicht Entwicklern den Zugriff auf Claude Code über OpenAI, Google, xAI und weitere Anbieter, um flexibel KI-Dienste zu nutzen.
•
Meta erwarb das KI-Startup WaveForms und stärkt damit seine Superintelligence Labs im Bereich künstliche Intelligenz und Audioverarbeitung.
•
Google führt einen neuen Google Finance Dienst mit KI-basierten Antworten, erweiterten Charts mit technischen Indikatoren, Echtzeit-Marktdaten und einem Live-News-Feed in den USA ein.
•
Für ausgewählte Chips von Nvidia (H20) und AMD (MI308), die für KI-Anwendungen wichtig sind, wird als Exportlizenzbedingung eine 15% Gebühr erhoben. Nvidia meldete allein einen Umsatzverlust von 4,5 Mrd. $ pro Quartal durch Verkaufsrestriktionen in China.
•
KI hat Einsteiger-Programmierjobs automatisiert, wodurch Bootcamp-Absolventen deutlich schlechtere Vermittlungsquoten vorweisen. Einige Schulen sehen einen Rückgang von 83 % auf 37 %, und Neueinstellungen sanken in manchen Bereichen auf die Hälfte des Niveaus vor der Pandemie.
•
Eine Sicherheitslücke ermöglicht es Angreifern, über unsichtbare Prompt-Injektionen in Dokumenten Daten aus verbundenen Google Drive-Konten zu stehlen. Diese Daten werden versteckt in Bild-URLs auf Azure Blob Storage eingebettet und so unbemerkt extrahiert.
•
Sprachmodelle versagen bei langen Gesprächen, da sie zu viel Aufmerksamkeit auf die ersten Tokens („Attention Sinks“) richten. Eine Lösung besteht darin, die ersten vier Tokens dauerhaft zu fixieren und den Rest dynamisch zu verschieben, um Millionen von Tokens stabil verarbeiten zu können.
•
LLMs werden niemals eigenständig große Codebasen verstehen oder zuverlässig wissen, was sie nicht wissen. Sie sind zwar hilfreich beim Lehren und Beantworten von Fragen, scheitern jedoch an grundlegend neuen oder komplexen Fragestellungen, die ein echtes Weltmodell erfordern.
•
Große Sprachmodelle sind keineswegs eine Gefahr für menschliche Intelligenz, sondern eher nützliche Tools. Die KI-Branche und Nutzer werden sich an die Technologien anpassen. Künstliche Allgemeine Intelligenz (AGI) bleibt fern, und aktuelle Modelle haben fundamentale Grenzen, trotz ihres beeindruckenden Erscheinens.
•
OpenAI hat nach sechs Jahren mit gpt-oss architektonisch neue Wege beschritten und verwendet 32 große Experten statt hunderter kleinerer, anders als bei Konkurrenzmodellen. Techniken wie alternierende Sliding-Window-Attention und MXFP4-Quantisierung gleichen die Leistungsfähigkeit größerer Modelle aus.