•
TOON (Token-Oriented Object Notation) ist ein kompaktes, menschenlesbares Datenformat, das Entwicklern ermöglicht, strukturierte Daten token-sparend an LLMs zu übermitteln. Im Vergleich zu standardisiertem JSON benötigt TOON deutlich weniger Tokens und erzielt bei Tests eine höhere Genauigkeit, besonders bei komplexen Objekten.
•
Das Thinking Machines Lab zeigte, dass kleinere KI-Modelle durch Lernen aus eigenen Fehlern mit Hilfe eines größeren Lehrmodells trainiert werden können. Dieses Verfahren erreicht mit bis zu 30-fach geringeren Kosten eine vergleichbare Leistungsfähigkeit wie herkömmliches Reinforcement Learning und benötigt deutlich weniger Trainingsaufwand.
•
Eine neue Sampling-Methode erlaubt es Basismodellen, mit nur einem Durchlauf bei der Beantwortung komplexer Aufgaben ähnliche Leistungen wie bei Reinforcement Learning zu erzielen. Dabei bleiben gleichzeitig Vielfalt der Antworten und Genauigkeit bei mehrfachem Durchlauf erhalten, ohne dass Modelle neu trainiert oder externe Prüfer benötigt werden.
•
Anthropic baut sein Engagement im Finanzsektor aus und bringt Claude für Excel auf den Markt. Dieses Tool ermöglicht es Anwendern, Tabellenkalkulationen durch Chat-Interaktionen mit Claude in einer Seitenleiste zu analysieren und zu bearbeiten. Derzeit befindet sich das Produkt als Beta exklusiv hinter einer Warteliste.
•
Das Unternehmen Mercor, spezialisiert auf Personalwesen und Recruiting, erreichte eine Bewertung von 10 Milliarden US-Dollar durch eine neue Finanzierungsrunde. Mercor beschäftigt weltweit 30.000 Auftragnehmer, die KI-Chatbots darin trainieren, menschliches Denken und Sprache nachzuahmen. Das Unternehmen steht aktuell in einem Rechtsstreit mit Scale wegen angeblichen Diebstahls von Geschäftsgeheimnissen.
•
Der Artikel erklärt, wie man Reinforcement-Learning (RL) Umgebungen aufbaut, welche als Szenarien für LLMs dienen, um bewertet oder trainiert zu werden. Er führt in das ‚Verifier‘-Framework ein und beschreibt, wie eine RL-Umgebung für das Benchmark AgentDojo entworfen wird. Die Gestaltung umfasst das Definieren von Aufgaben, Belohnungen und Navigationsstrategien für die KI.
•
Google kündigte an, dass das Modell Gemma einen neuen potenziellen Krebswirksamen Wirkstoffweg entdeckt habe. Tatsächlich wurde das Experiment komplett von Menschen konzipiert und durchgeführt. Das Modell half vor allem bei der probabilistischen Auswahl von Kandidaten für die weitere menschliche Prüfung. Aktuelle KI-Systeme besitzen noch nicht die menschliche Fähigkeit zum eigenständigen rationalen Schlussfolgern.
•
Das OCR-Modell olmOCR wurde speziell auf bessere Erkennung von mathematischen Formeln, Tabellen und anderen komplexen Fällen trainiert und bietet dadurch höhere Genauigkeit für anspruchsvolle Texterkennungsaufgaben.
•
Statt Kernaufgaben nur zu delegieren, empfiehlt sich, Nebenaufgaben wie Dokumentation, Fehlerbehebung oder Experimentieren an KI-Agenten auszulagern. Diese können solche Nebenarbeiten asynchron im Hintergrund erledigen, sodass Sie den Fokus auf wirklich wichtige Tätigkeiten richten können.
•
In den letzten drei Monaten entließ Intel circa 20.500 Mitarbeiter, vor allem in Q2. Neben mittleren Führungskräften betrafen die Kürzungen auch Ingenieure und Techniker. Trotz Umsatzsteigerung reduzierte Intel sein Forschungsbudget um über 800 Millionen US-Dollar, was auf das Einstellen mehrerer Projekte hindeutet.