•
OpenAI hat GPT-5 veröffentlicht, das fortschrittlichste KI-Modell des Unternehmens. Es ist ab sofort für alle Nutzer von ChatGPT zugänglich.
•
Cursor CLI bietet Entwicklern KI-gestützte Programmierunterstützung direkt im Terminal und ermöglicht nahtloses Wechseln zwischen Kommandozeilen- und Editor-basierten KI-Workflows, ähnlich wie Claude Code und Gemini CLI.
•
Mustafa Suleyman von Microsoft lockt Google DeepMind-Ingenieure mit dem Versprechen, in der Microsoft AI-Abteilung weniger bürokratische Hürden als bei DeepMind vorzufinden. So soll die Arbeit agiler und startupähnlicher sein.
•
Mit der Einführung eines kostenpflichtigen Abos für 20 US-Dollar pro Monat begrenzt The Browser Company künftig die Nutzung der KI-Funktionen für kostenlose Anwender. So wird die kostenlose Version künftig in der Nutzung eingeschränkt.
•
Zwei chinesische Staatsbürger wurden in Kalifornien festgenommen, weil sie gegen US-Exportbestimmungen verstoßen haben sollen, indem sie leistungsstarke KI-Chips, vermutlich Nvidia H100, illegal nach China schmuggeln wollten.
•
Google bringt mit Gemini ein Guided Learning Tool, das wie ein KI-Tutor arbeitet. Es unterstützt Nutzer dabei, ein tieferes Verständnis zu erlangen, statt nur Antworten zu liefern, und konkurriert damit direkt mit ChatGPTs Study Mode.
•
OpenAI vergibt zehn Preise à 50.000 US-Dollar an Forscher, welche bislang unbekannte Schwachstellen im offenen KI-Modell GPT-OSS-20B identifizieren. Dabei liegt der Fokus auf Manipulations- und Täuschungsrisiken wie strategischem Lügen oder Belohnungshacking.
•
Google stellt Hochschulstudenten ein Jahr lang kostenfrei das Gemini AI Pro-Paket zur Verfügung. Dieses umfasst Tools wie Gemini 2.5 Pro, Guided Learning Mode, NotebookLM und Veo 3, um fortschrittliche KI-Unterstützung im Studium zu ermöglichen.
•
Beim subliminalen Lernen übernimmt ein Model durch Feinabstimmung auf scheinbar irrelevante Daten versteckte Verhaltensweisen seines Lehrmodells. Dabei werden bestimmte Konzepte und Tokens eng miteinander verknüpft, sodass das Auftauchen eines Tokens eine höhere Wahrscheinlichkeit für einen anderen erzeugt. Experimente mit Qwen-2.5 7B zeigen, wie diese Verflechtung Themenpräferenzen beeinflussen kann.
•
Einfaches Verfahren namens ε-softmax verbessert die Toleranz von tiefen neuronalen Netzwerken gegenüber verrauschten Trainingsdaten (falschen Labels). Diese Anpassung der Softmax-Funktion erhöht die Robustheit beim Lernen und kann zu zuverlässigeren Modellen führen.