•
Eine Miro-Studie mit über 2.000 Produktmitarbeitern zeigt, dass 76 % der Befragten KI positiv bewerten, jedoch 43 % sie nie nutzen. Der Bericht beleuchtet die Gründe für die eingeschränkte Nutzung trotz Optimismus.
•
Anthropic hat seine vorherige Politik geändert und verlangt von Nutzer:innen, aktiv zuzustimmen oder abzulehnen, ob ihre Konversationen mit Claude für KI-Training verwendet werden dürfen. Die Frist für diese Entscheidung ist der 28. September 2025.
•
oLLM ermöglicht große Kontextfenster (bis 100.000 Token) bei Modellen wie Llama-3.1-8B-Instruct, auch mit GPUs ab 8 GB VRAM. Die Bibliothek nutzt keine Quantisierung, sondern fp16-Präzision, was ressourcenschonendes und dennoch leistungsfähiges LLM-Inferenz-Handling erlaubt.
•
R-Zero ist ein Framework für selbst entwickelnde LLMs, die autonom Trainingsdaten generieren und daraus lernen. Das System verbessert die Reasoning-Fähigkeiten diverser Basis-Modelle ohne großen menschlichen Kurationsaufwand und adressiert so den Engpass manuell erstellter Trainingsdaten.
•
Claude Sonnet 4 ist jetzt in Xcode verfügbar und kann in den Intelligence-Einstellungen aktiviert werden. Voraussetzung ist ein kostenpflichtiges Claude-Konto. Nutzer können in ChatGPT nun zwischen GPT-4.1 und GPT-5 wechseln, wobei GPT-5 als Standard eingestellt ist.
•
CLI-Coding-Agenten können Quellcode lesen, Tests ausführen und Code aktualisieren. Dieser Artikel erklärt, wie man mit Open-Source-Tools und spezifischen Entwicklungsstandards einen eigenen Agenten entwickelt. Das Verständnis eigener Tools hilft, die Qualität kommerzieller Produkte besser einzuschätzen.
•
Neue Forschung von 1Password zeigt, dass 63 % der Sicherheitsverantwortlichen Mitarbeiter als größte interne Sicherheitsgefährdung sehen, wenn diese KI-Systemen Zugriff auf sensible Daten geben. Der Artikel erläutert die vier wichtigsten Sicherheitsprobleme und gibt Empfehlungen zur Risikominderung.
•
OpenAI’s neue Realtime API ist nun allgemein verfügbar und unterstützt MCP-Server, Bildinputs und Telefonate. Das Modell gpt-realtime ist das fortschrittlichste Speech-to-Speech-Modell von OpenAI, mit verbesserter Fähigkeit, komplexe Befehle auszuführen und natürliche, ausdrucksstarke Sprache zu erzeugen. Durch Kombination von Audioeingabe und -ausgabe in einem Modell werden Latenz verringert und Nuancen erhalten.
•
Meta will seine nächste Llama-Version namens Llama 4.X oder 4.5 noch dieses Jahr veröffentlichen. Das Modell gehört zu den ersten Projekten der neu strukturierten Meta Superintelligence Labs, die in vier Teams für Training, Forschung, Produkt und Infrastruktur unterteilt ist. Die Llama-4-Modelle wurden erstmals im April angekündigt.
•
xAI hat ein neues Coding-Modell vorgestellt, das auf Geschwindigkeit und Kosteneffizienz optimiert ist statt auf allgemeine Intelligenz. Es kostet nur 0,20 US-Dollar pro Million Input-Tokens, deutlich günstiger als Wettbewerber mit über 18 US-Dollar. Über Partnerschaften ist das Modell derzeit noch kostenlos auf Plattformen wie GitHub Copilot und Cursor erhältlich.