•
Keith Heyde, verantwortlich für die Infrastruktur bei OpenAI, verfolgt die Entwicklung der Stargate-Datenzentren, die OpenAI als einen dezentralen Pfeiler neben Produkt- und Modellentwicklung sieht. Die Herausforderungen bei Standortwahl und Aufbau stehen im Fokus.
•
Der von Mira Murati gegründete AI-Lab Thinking Machines stellt mit Tinker eine API vor, die Low-Level-Funktionen für Supervised Finetuning und Online-Reinforcement-Learning bietet. So wird experimentelles AI-Research leichter zugänglich.
•
SINQ (Sinkhorn-Normalized Quantization) ist eine neue Methode, um große Sprachmodelle effizient und genau auf niedrige Bit-Precision zu quantisieren. Durch duales Skalieren und Ausbalancieren der Modelleigenschaften bleibt die Genauigkeit auch bei 3-Bit-Ergebnissen erhalten.
•
Die Statistiksoftware Stan verliert zunehmend an Bedeutung, da JAX als performantere Alternative für anspruchsvolle Anwendungen aufkommt. Hardware-Verfügbarkeit ist derzeit der größte Hemmschuh, wird aber künftig kein Problem mehr sein.
•
Claude Sonnet 4.5 überzeugt in Cybersecurity-Aufgaben wie der Erkennung von Schwachstellen und erreicht Leistungen auf oder über dem Niveau anderer Spitzenmodelle. Der Fokus liegt zunehmend auf KI für Verteidigung statt nur für Angriffe.
•
Vom 7. bis 9. Oktober zeigt IBM auf der TechXchange-Konferenz, wie generative KI und Agenten Unternehmens-IT verändern. Eröffnungsreden und eine Preisverleihung für Innovationen runden das Programm ab. Die Sessions sind per Livestream verfügbar.
•
Die Jules API ermöglicht Entwicklern, die Fähigkeiten von Jules programmgesteuert zu nutzen, um Entwicklungszyklen zu automatisieren und zu verbessern. Dazu zählen automatisierte Bugfixes, Code-Reviews und die Integration in eigene Tools.
•
Für optimale Genauigkeit beim Einlesen von Tabellendaten in große Sprachmodelle ist die Wahl des Datenformats entscheidend. Studien zeigen, dass Markdown-KV am zuverlässigsten ist, während Formate wie CSV und JSONL die Modellgenauigkeit verschlechtern können. Dies ist wichtig für die Gestaltung effizienter RAG-Pipelines.
•
Analysten vergleichen Nvidias 100 Milliarden Investment in OpenAI mit der historischen Telekom-Blase, stellen allerdings fest, dass viele Kunden von Nvidia zahlungsfähig und erfahren sind. Dies differenziert die aktuelle KI-Investitionsphase von der spekulativen Telekom-Ära deutlich.
•
Viele Ökonomen ignorieren transformative KI und setzen auf vergleichende Vorteile zur Erklärung hoher Löhne. Die Auswirkung von KI hängt jedoch stark von der Struktur der Anwendungsdomäne ab, wie beispielsweise klare Muster bei Proteinfaltung versus unvorhersehbare Genomanalyse.