•
Der neue OpenAI-Chef für Anwendungen beschreibt, wie ChatGPT sich von einer reinen Chat-Schnittstelle hin zu einer „voll generativen Nutzeroberfläche“ entwickelt. Diese integriert Bildbearbeitung, Inline-Schreibblöcke, schnelle visuelle Antworten und kontextbezogene Highlights für ein interaktiveres Erlebnis.
•
Der aktuelle Stand beim Streaming von großen Sprachmodellen ist unbefriedigend: Bei Unterbrechungen müssen Nutzer oft die Seite neu laden. Eine neue Anleitung zeigt, wie man Streams so implementiert, dass Nutzer problemlos Tabs wechseln, die Seite neu laden und Netzunterbrechungen überbrücken können, ohne den Dialog zu verlieren.
•
Cisco präsentiert auf dem AI Infrastructure Field Day 4 seine duale Silizium-Netzwerkstrategie und die Nexus Hyperfabric AI, die den Aufbau von skalierbaren GPU-Netzwerken erleichtern soll. Dies soll die Betriebskosten senken und Deployments beschleunigen. Ein kostenloser Livestream des Events ist verfügbar.
•
Entwickler können jetzt Apps erstellen, die innerhalb von ChatGPT funktionieren und ihre Monetarisierung über externe Checkout-Systeme oder ausgewählte Partner per Instant Checkout abwickeln. Das SDK erleichtert damit den Vertrieb und Bezahlvorgang für ChatGPT-basierte Anwendungen.
•
OpenAI hat GPT-Image-1.5 vorgestellt, ein Modell zur Bildgenerierung, das schneller arbeitet und die Anweisungen besser versteht. Die Verbesserung erfolgt vor dem Hintergrund des Wettbewerbs mit Googles Gemini 3 und Nano Banana Pro, die in wichtigen Benchmarks kürzlich führten.
•
Meta hat SAM Audio eingeführt, ein Modell, das in Audioaufnahmen bestimmte Geräusche isolieren kann. Nutzer können mit Text-, visuellen oder zeitbasierten Anweisungen z.B. Hintergrundgeräusche entfernen oder einzelne Instrumente hervorheben. SAM Audio ist Teil der Segment Anything Familie und bietet flexible Tonbearbeitung per Eingabeprompt.
•
Die KI-Infrastruktur entwickelt sich nicht mehr in Richtung eines einzigen besten Modells, sondern teilt sich in zwei Märkte auf. Reserved Compute bietet Kunden Kontrolle und Vorhersagbarkeit bei direkter Infrastrukturkontrolle, während Inference APIs Skalierbarkeit, Kostenersparnis und geringere Komplexität bieten, jedoch weniger Kontrolle. Diese Unterscheidung ist entscheidend für die Wertentwicklung bei flächendeckender Inferenznutzung.
•
Eingabeprompts werden bei OpenAI und Anthropic derzeit bei Cache-Nutzung bis zu zehnmal günstiger abgerechnet und verbessern zudem die Antwortzeit um bis zu 85 % bei langen Anfragen. In diesem Artikel wird erläutert, was genau zwischengespeichert wird und wie das Technikprinzip des Prompt Caching funktioniert.
•
OpenAI hat stillschweigend den automatischen Modell-Router für Nutzer der Free- und Go-Tarife abgeschafft. Statt komplexe Anfragen an leistungsfähigere Modelle weiterzuleiten, bekommen alle standardmäßig GPT-5.2 Instant zugewiesen. Das Router-System hatte die Nutzung von leistungsfähigen Modellen bei Free-Nutzern von unter 1 % auf etwa 7 % erhöht, jedoch offenbar die Nutzerzufriedenheit gesenkt, da Wartezeiten von rund…
•
Aktuelle Trending Tools umfassen a0.dev zum Erstellen und Veröffentlichen von mobilen Apps, MarketAlerts zur Analyse von Aktienhandel, OG Herro zum schnellen Erstellen von Bildern aus URLs, Nodejam als Formatierungshilfe, sowie Yolly AI für cineastische Videoproduktion mit realistischen Sounds. Adobe Firefly bietet zudem neue Funktionen zur videobasierten Bearbeitung via natürlicher Sprache.