•
Anthropic hat eine Sammelklage beigelegt, die das Training ihrer Sprachmodelle mit Büchern betraf, und zieht damit auch die Berufung vor dem Ninth Circuit zurück.
•
Mindestens drei Mitarbeiter, die in einer Rekrutierungsaktion zu Meta wechselten, haben das Unternehmen bereits verlassen und kehren teils zu OpenAI zurück. Auch eine langjährige Managerin verlässt Meta, um bei OpenAI an Spezialprojekten zu arbeiten.
•
Das Tool Grok Code ist für eine Woche kostenfrei in Cursor nutzbar. Anschließend gelten Preise von 0,20 USD pro Million Eingabetokens und 1,50 USD pro Million Ausgabetokens.
•
Meta baut in Richland Parish das größte Datenzentrum des Unternehmens mit einem Investitionsvolumen von 50 Milliarden US-Dollar.
•
Obwohl moderne große Sprachmodelle immer größere Kontextfenster bieten, führt das Überladen mit Informationen zu schlechterer Leistung und höheren Kosten. Es ist wichtig, selektiv Kontext zu bieten und überflüssige Details auszuschließen, um Performance und Kosten zu optimieren.
•
InternVL 3.5 verbessert multimodales Denken und Alignment durch Cascade Reinforcement Learning und bietet neue Optimierungen wie einen Visual Resolution Router sowie eine entkoppelte Deployment-Strategie.
•
Die heutigen LLM-Kontextfenster sind mit etwa 1 Million Tokens zu klein für typische Unternehmenscodebasen. Deshalb brauchen KI-Coding-Tools komplexe Architekturkonzepte wie Kontext-Stacks, um Repository-Übersichten, semantische Suche und Unternehmens-Integrationen zu ermöglichen und Ressourcen effizient zu nutzen.
•
OpenAI hat Nate Gross (ehemals Doximity) und Ashley Alexander (ehemals Instagram) neu ins Healthcare-Team aufgenommen. Ziel ist es, Technologie für Patienten und Kliniker zu entwickeln, wobei die sichere und verantwortungsvolle Anwendung von KI im Gesundheitssystem im Vordergrund steht.
•
Forrester hat Credo AI als Leader im Bereich KI-Governance bewertet. Credo AI unterstützt Unternehmen dabei, Compliance mit Regularien wie dem EU AI Act und NIST RMF sicherzustellen und Vertrauen in KI-Systeme aufzubauen. Ein Bericht bietet detaillierte Einblicke und Strategien.
•
KI-Coding-Assistenten nutzen zwei Hauptmethoden zur Codekontextsuche: Vektor-basierte Retrieval (RAG) und Stichwortsuche mit grep. Grep ist zwar schnell und exakt, erzeugt jedoch zu viele irrelevante Treffer, verbraucht viele Tokens und bremst die Arbeit. Vektor-Suche ist dagegen präziser, schneller und reduziert den Tokenverbrauch signifikant.