•
Databricks hat eine Finanzierungsrunde abgeschlossen, bei der 4 Milliarden Dollar eingesammelt wurden und die Bewertung um 34 % auf 134 Milliarden Dollar stieg. CEO Ali Ghodsi schließt einen Börsengang im Jahr 2026 nicht aus.
•
Nemotron 3 ist eine offene hybride Architektur aus Mamba-Transformern und Expertenmodulen (MoE), die auf agentenbasierte KI-Anwendungen ausgerichtet ist. NVIDIA beschreibt Techniken, Tools und Daten, die das Modell effizient und genau machen.
•
FrontierScience ist ein Benchmark, um die Leistungsfähigkeit von KI bei Expertenaufgaben in Physik, Chemie und Biologie zu testen. Damit lässt sich die Fähigkeit von Modellen zu komplexer wissenschaftlicher Argumentation evaluieren.
•
Qwen-Doc bietet offene Modelle und Werkzeuge zur Verbesserung des Verständnisses, Parsens und der agentenbasierten Interpretation langer und komplexer Dokumente. Die Initiative soll Dokumenten-KI in Anwendungsfällen mit hohem Kontextumfang stärken.
•
Mit Mixture-of-Recursions (MoR) hat DeepMind eine neue Architektur vorgestellt, die Parameter-Sharing und adaptive Berechnung kombiniert. Der rekursive Transformer mit leichtgewichtiger Steuerung ermöglicht effizientere und anpassungsfähigere Modelle.
•
Der neue OpenAI-Chef für Anwendungen beschreibt, wie ChatGPT sich von einer reinen Chat-Schnittstelle hin zu einer „voll generativen Nutzeroberfläche“ entwickelt. Diese integriert Bildbearbeitung, Inline-Schreibblöcke, schnelle visuelle Antworten und kontextbezogene Highlights für ein interaktiveres Erlebnis.
•
Der aktuelle Stand beim Streaming von großen Sprachmodellen ist unbefriedigend: Bei Unterbrechungen müssen Nutzer oft die Seite neu laden. Eine neue Anleitung zeigt, wie man Streams so implementiert, dass Nutzer problemlos Tabs wechseln, die Seite neu laden und Netzunterbrechungen überbrücken können, ohne den Dialog zu verlieren.
•
Cisco präsentiert auf dem AI Infrastructure Field Day 4 seine duale Silizium-Netzwerkstrategie und die Nexus Hyperfabric AI, die den Aufbau von skalierbaren GPU-Netzwerken erleichtern soll. Dies soll die Betriebskosten senken und Deployments beschleunigen. Ein kostenloser Livestream des Events ist verfügbar.
•
Entwickler können jetzt Apps erstellen, die innerhalb von ChatGPT funktionieren und ihre Monetarisierung über externe Checkout-Systeme oder ausgewählte Partner per Instant Checkout abwickeln. Das SDK erleichtert damit den Vertrieb und Bezahlvorgang für ChatGPT-basierte Anwendungen.
•
Die KI-Infrastruktur entwickelt sich nicht mehr in Richtung eines einzigen besten Modells, sondern teilt sich in zwei Märkte auf. Reserved Compute bietet Kunden Kontrolle und Vorhersagbarkeit bei direkter Infrastrukturkontrolle, während Inference APIs Skalierbarkeit, Kostenersparnis und geringere Komplexität bieten, jedoch weniger Kontrolle. Diese Unterscheidung ist entscheidend für die Wertentwicklung bei flächendeckender Inferenznutzung.