•
OpenAI hat GPT-5 veröffentlicht, ein fortschrittliches KI-Modell mit integriertem Denkvermögen, das Expertenwissen für jeden zugänglich macht. GPT-5 besteht aus zwei Modellen: einem effizienten für einfache Aufgaben und einem für komplexes, mehrstufiges Denken. Es erreicht 94,6 % Genauigkeit bei der anspruchsvollen AIME-Mathematikprüfung 2025 und übertrifft alle bisherigen Modelle. GPT-5 agiert proaktiv und kann umfassende Analysen…
•
Forscher des MIT haben eine neue Methode entwickelt, mit der KI-Systeme Objekte aus verschiedenen Perspektiven erkennen, ohne durch Drehungen oder Spiegelungen verwirrt zu werden. Dies löst ein bekanntes Problem beim maschinellen Lernen, bei dem ein Objekt aus geänderter Ansicht als anders erkannt wird. Mithilfe der Gruppentheorie kann die KI nun Objekte schneller und daten-effizienter…
•
Anthropic erweitert seine Präsenz in Asien mit der Eröffnung eines Büros in Tokio. Hidetoshi Tojo wurde zum Verantwortlichen für Japan ernannt.
•
OpenAI’s KI o3 gewann das Finale gegen Grok 4 im Kaggle AI Chess Exhibition Tournament dank besserem Verständnis des Endspiels und überlegenen Spielzügen. Der Drittplatzierte, Gemini 2.5 Pro, besiegte o4-mini mit 3,5 zu 0,5.
•
Stability AI hat eine neue Enterprise-Offerte präsentiert, die maßgeschneiderte generative KI-Modelle und Workflows für kreative Produktionen bietet.
•
Anthropic nennt seine Sicherheitsorientierung, hochwertige Forschung und Top-Expertenteam als Gründe, warum Talente das Unternehmen bevorzugen.
•
KI wählt jedes Token basierend auf Wahrscheinlichkeiten im Kontext zuvor generierter Inhalte und denkt nicht im herkömmlichen Sinne. Dies erklärt, warum KI-Ausgaben selten beim ersten Versuch perfekt sind.
•
Notte ist ein Framework für die schnelle, kosteneffiziente und skalierbare Entwicklung zuverlässiger KI-Webagenten. Es kombiniert KI-Agenten mit klassischem Scripting und ermöglicht Entwicklern, AI-gesteuerte Webautomatisierungen und Agenten über eine einzige API zu erstellen, bereitzustellen und zu skalieren.
•
Octo ist ein freundlicher Open-Source-Coding-Assistent, der mit jeder OpenAI- oder Anthropic-kompatiblen LLM-API funktioniert. Entwicklern wird ermöglicht, Modellwechsel mitten im Gespräch vorzunehmen, falls ein Modell an seine Grenzen stößt. Gleichzeitig kann man eigene trainierte Modelle zur Unterstützung nutzen – ohne jegliche Telemetrie.
•
Ein neuer, skalierbarer Kurationprozess für aktives Lernen ermöglicht es, die Menge der benötigten Trainingsdaten zur Feinabstimmung großer Sprachmodelle drastisch zu reduzieren – von 100.000 auf unter 500 Beispiele. Gleichzeitig verbessert sich die Übereinstimmung mit menschlichen Experten um bis zu 65%.