•
Ein Team ehemaliger ASML-Ingenieure baute in Shenzhen einen Prototypen einer EUV-Belichtungsmaschine, für die der US-Exportstopp seit 2018 gilt. Obwohl noch keine funktionsfähigen Chips produziert wurden, wird mit einer Fertigstellung bis 2028-2030 gerechnet.
•
Cached Prompts reduzieren Kosten um das Zehnfache und verbessern die Geschwindigkeit um 85 %. Dabei werden nicht die Antworten, sondern spezifische Matrizen aus dem Aufmerksamkeitsmechanismus zwischengespeichert. Die genaue Funktionsweise und Berechnung erläutert Ngrok detailliert.
•
Chatterbox ist ein offenes, modernes TTS-Modell mit Unterstützung für mehrere Sprachen, Emotionssteuerung und Zero-Shot-Stimmenklonen. Es steht frei auf GitHub zur Verfügung.
•
Peter DeSantis, seit 27 Jahren bei Amazon, übernimmt den neu geschaffenen Bereich „AGI“ und integriert Teams von AWS. Diese Einheit berichtet direkt an CEO Andy Jassy und zeigt, wie wichtig Amazon KI und zugehöriges Computing inzwischen einstuft.
•
Der praktische Guide von You.com hilft Unternehmen, wirkungsvolle Einsatzmöglichkeiten von KI zu identifizieren und Prioritäten zu setzen. Er zeigt, wie KI den größten Mehrwert intern und extern schaffen kann, um Investitionen zielgerichtet zu gestalten.
•
Plan Mode bei Claude Code pausiert die Ausführung, bis der Nutzer einen von KI generierten Plan überprüft und genehmigt hat. Dies erhöht die Komplexität der Nutzeroberfläche und macht den Prozess weniger intuitiv, bietet aber mehr Steuerungsmöglichkeiten.
•
Opal ist ein Tool zur Entwicklung KI-gestützter Minianwendungen und ist jetzt direkt in der Gemini Web-App verfügbar. Nutzer können damit experimentelle „Gems“ erstellen, um personalisierte Gemini-Erfahrungen zu erweitern.
•
xAI hat die Sprachtechnologie hinter Grok in Tesla-Fahrzeugen als API für Entwickler freigegeben. Das Modell erreicht Spitzenwerte beim Big Bench Audio Benchmark mit einer Reaktionszeit unter einer Sekunde zu halb so hohen Kosten wie die Konkurrenz.
•
Obwohl Oracle 523 Mrd. USD an „verbleibenden Leistungsansprüchen“ meldet, fiel der Aktienkurs seit September um 43 %. Rund 300 Mrd. USD stammen aus einem fünfjährigen Vertrag mit OpenAI, dessen Zahlungsfähigkeit von Analysten bezweifelt wird. Zudem verzögert sich Nvidias 100-Milliarden-Dollar-Investment in OpenAI, was Befürchtungen über die komplexen Verflechtungen in der KI-Infrastruktur verstärkt.
•
Aktuelle KI-Modelle nutzen die Hardware unzureichend: Beim Training erreichen DeepSeek-V3 und Llama-4 nur etwa 20 % der FLOP-Leistung, bei der Inferenz sind es sogar einstellige Prozentsätze. Modelle basieren oft auf älterer Hardware und sind daher ein verzögerter Indikator für den aktuellen Stand der Technik.