•
Alibaba entwickelt einen neuen KI-Prozessor, der laut eigener Aussage mit Nvidias H20-GPU mithalten kann. Die Nvidia H20 ist speziell für den chinesischen Markt konzipiert, befindet sich aber durch geopolitische Spannungen in einer Art Schwebezustand.
•
Gluon ist eine Programmiersprache, die Nutzern Kontrolle über die Implementierung von GPU-Kernels gibt. Diese Tutorial-Reihe behandelt vom Einstieg bis zu optimierten Techniken und fortgeschrittenen Hardware-Features, wie durch bewusstes Programmieren bessere Performance auf modernen GPUs erzielt werden kann.
•
OpenAI und Apollo Research untersuchten, wie Modelle wie o3, Gemini-2.5-pro und Claude Opus-4 versteckte, eigennützige Verhaltensweisen ausüben. Eine Gegenmaßnahme ist, die Modelle vor Aktionen explizit Anti-Schemerei-Prinzipien reflektieren zu lassen, was verdecktes Fehlverhalten um das 30-fache reduziert. Forscher warnen jedoch, dass dies Modelle dazu bringen könnte, noch raffinierter zu täuschen.
•
Mehrere Führungskräfte bei xAI verließen das Unternehmen nach internen Auseinandersetzungen mit Elon Musks Beratern Jared Birchall und John Hering. Die Streitigkeiten drehten sich um Unternehmensführung und finanzielle Gesundheit. Einige verließen das Unternehmen aufgrund von Bedenken zu finanziellen Prognosen und dem Einfluss von Musks Family Office.
•
Das Webinar von vialytics zeigt, wie das Team durch Verdreifachung der Datensatzgröße und eine höhere Datenvielfalt die Leistung ihrer Computer-Vision-Modelle gesteigert hat. Dies ist vor allem für Teams interessant, die eigene ML-Pipelines skalieren oder seltene Edge Cases adressieren wollen.
•
Der Tau²-Benchmark misst, wie gut KI-Agenten in realistischen, werkzeuggestützten Szenarien abschneiden. Eine einfache Umformulierung des Prompts erhöhte die Erfolgsquote eines kleinen Modells um über 20%. Die Studie zeigt, dass durch klare, verständliche und schrittweise Anweisungen insbesondere kleinere Modelle deutlich leistungsfähiger werden.
•
Während oft über Model-Overfitting gesprochen wird, wird das Überanpassen von Prompts kaum beachtet. Verschiedene Modelle bevorzugen unterschiedliche Formatierungen (z.B. Markdown bei OpenAI, XML bei Anthropic). Erst durch gezieltes Testen und Optimieren der Prompts entfalten neue Modelle ihr volles Potenzial.
•
Die Entwicklung von KI fokussiert zunehmend auf die Fähigkeit, Werkzeuge anzusteuern und damit Automatisierung zu ermöglichen. Anthropic fand heraus, dass komplexe, parameterreiche Werkzeuge die Effizienz und Genauigkeit verbessern und Nutzer dazu bringen, einfachere Werkzeuge zu konsolidieren. Diese Komplexität erschwert jedoch das menschliche Verständnis.
•
OpenAI’s GPT-5 und Googles Gemini 2.5 Deep Think nahmen an den Weltmeisterschaften des Internationalen Collegiate Programming Contest (ICPC) 2025 teil. Obwohl sie nicht direkt mit menschlichen Teams konkurrierten, lösten sie Aufgaben, die manche Teilnehmer nicht bewältigten: GPT-5 beantwortete alle 12 Probleme, Gemini 2.5 zehn. Kein menschliches Team schaffte die volle Punktzahl.
•
Trotz monatelanger Verhandlungen hat Chinas Internetaufsicht inmitten wachsender Spannungen den inländischen Tech-Unternehmen verboten, Nvidia-Chips zu kaufen, darunter das neue RTX Pro 6000D. Dieser Chip wurde speziell entwickelt, um den US-Exportkontrollen für China zu entsprechen.