•
Google DeepMind stellte „CodeMender“ vor, einen AI-Agent zur automatischen Verbesserung der Code-Sicherheit. ElevenLabs lancierte „Agent Workflows“ für vielseitige AI-Chatbot-Flows. Adobe prognostiziert für US-Einzelhandel vor Thanksgiving eine 520% Steigerung von KI-Traffic. IBM kooperiert mit Anthropic zur Integration von „Claude“ in IBM-Software zur schnellen Entwicklung von Unternehmens-KI-Lösungen.
•
Google Research entwickelte „PASTA“, eine Methode zur schrittweisen Verfeinerung AI-generierter Bilder durch visuelles Feedback statt komplexer Texteingaben. Nutzer geben einen Eingabe-Befehl, aus dem PASTA fünf Varianten erstellt, von denen der Nutzer die beste auswählt. Dieser Prozess wiederholt sich über mehrere Durchläufe, wobei das System durch Implizites Q-Lernen (IQL) Präferenzen für Bildkonzepte, Komposition und Farben…
•
OpenAI kämpft mit Design- und technischen Schwierigkeiten bei einem geheimen, AI-gestützten Gerät. Nach der Übernahme von „io“ für 6,5 Milliarden US-Dollar holte OpenAI das Designteam von Jony Ive an Bord, um weniger sozial störende AI-Geräte zu entwickeln. Ein im Patent beantragtes „smarte Schmuck“-Gerät, das eine AI-unterstützte Interaktion ermöglicht, könnte die Basis sein. Die Verzögerungen…
•
Sam Altman erklärte, dass für ChatGPT Pulse derzeit keine Werbung geplant ist, schließt zukünftige Instagram-ähnliche Werbeformate jedoch nicht vollständig aus.
•
Deloitte rollt den KI-Assistenten Claude von Anthropic für über 470.000 Mitarbeitende in 150 Ländern aus – der bisher größte Einsatz des Modells. Dies unterstreicht die zunehmende Verbreitung von Enterprise-KI-Anwendungen.
•
Replit veröffentlicht Connectors, die eine nahtlose Verknüpfung von Anwendungen mit Diensten wie Google, Salesforce und Notion erlauben. Nutzer profitieren von Ein-Klick-Logins ohne wiederholte Einrichtung oder Credential-Handling.
•
OpenAI bot 500 Millionen Dollar für Medal, eine Plattform, auf der Gamer Spielvideos hochladen. Der Deal scheiterte; Medal plant nun ein KI-Labor namens General Intuition, das KI-Modelle mit seinen Video-Daten trainieren will.
•
Forscher analysierten, warum Sprachmodelle einfache 4×4-Multiplikationen nicht gut lernen. Erfolgreiche Modelle bilden dabei Baumstrukturen in der Aufmerksamkeit aus, um Zwischenergebnisse zu speichern. Standardtraining scheitert, weil Modelle zuerst die äußeren Ziffern lernen, bei mittleren Ziffern aber stocken. Ein zusätzlicher Hilfsverlust zur Vorhersage Zwischensummen verbessert die Leistung deutlich.
•
GPT-5 Pro entdeckte ein Gegenbeispiel zu einem offenen Problem aus 2014 in der theoretischen Informatik namens Non-Interactive Correlation Distillation with Erasures (NICD). Ein Screenshot seiner Lösung ist öffentlich zugänglich.
•
Cerebras hat die Anmeldung zum Börsengang zurückgezogen, um aktualisierte Finanz- und Strategieinformationen aufzubereiten. Neue Investoren wurden bisher nicht angegeben. Das Unternehmen plant einen erneuten Antrag, der auch die schnelle Entwicklung im KI-Bereich berücksichtigt.