•
Die Eltern eines 16-jährigen Jugendlichen, der sich das Leben nahm, verklagen OpenAI erstmals wegen Fehlverhaltens. Sie behaupten, dass ChatGPT ihren Sohn psychisch belastet und zum Suizid geführt habe.
•
Anthropic hat eine Sammelklage beigelegt, die das Training ihrer Sprachmodelle mit Büchern betraf, und zieht damit auch die Berufung vor dem Ninth Circuit zurück.
•
Mindestens drei Mitarbeiter, die in einer Rekrutierungsaktion zu Meta wechselten, haben das Unternehmen bereits verlassen und kehren teils zu OpenAI zurück. Auch eine langjährige Managerin verlässt Meta, um bei OpenAI an Spezialprojekten zu arbeiten.
•
Das Tool Grok Code ist für eine Woche kostenfrei in Cursor nutzbar. Anschließend gelten Preise von 0,20 USD pro Million Eingabetokens und 1,50 USD pro Million Ausgabetokens.
•
Meta baut in Richland Parish das größte Datenzentrum des Unternehmens mit einem Investitionsvolumen von 50 Milliarden US-Dollar.
•
Obwohl moderne große Sprachmodelle immer größere Kontextfenster bieten, führt das Überladen mit Informationen zu schlechterer Leistung und höheren Kosten. Es ist wichtig, selektiv Kontext zu bieten und überflüssige Details auszuschließen, um Performance und Kosten zu optimieren.
•
InternVL 3.5 verbessert multimodales Denken und Alignment durch Cascade Reinforcement Learning und bietet neue Optimierungen wie einen Visual Resolution Router sowie eine entkoppelte Deployment-Strategie.
•
Die heutigen LLM-Kontextfenster sind mit etwa 1 Million Tokens zu klein für typische Unternehmenscodebasen. Deshalb brauchen KI-Coding-Tools komplexe Architekturkonzepte wie Kontext-Stacks, um Repository-Übersichten, semantische Suche und Unternehmens-Integrationen zu ermöglichen und Ressourcen effizient zu nutzen.
•
OpenAI hat Nate Gross (ehemals Doximity) und Ashley Alexander (ehemals Instagram) neu ins Healthcare-Team aufgenommen. Ziel ist es, Technologie für Patienten und Kliniker zu entwickeln, wobei die sichere und verantwortungsvolle Anwendung von KI im Gesundheitssystem im Vordergrund steht.
•
KI-Coding-Assistenten nutzen zwei Hauptmethoden zur Codekontextsuche: Vektor-basierte Retrieval (RAG) und Stichwortsuche mit grep. Grep ist zwar schnell und exakt, erzeugt jedoch zu viele irrelevante Treffer, verbraucht viele Tokens und bremst die Arbeit. Vektor-Suche ist dagegen präziser, schneller und reduziert den Tokenverbrauch signifikant.