•
OmniVinci ist eine multimodale Architektur, die Bild-, Video-, Audio- und Textdaten mit neuen Techniken ausrichtet und kodiert. Das 9-Milliarden-Parameter-Modell übertrifft Qwen2.5-Omni bei Wahrnehmungstests, benötigt aber deutlich weniger Trainingsdaten.
•
Forscher entwickelten Malware, die Windows-eigene KI-Modelle verwendet, um autonom Schwachstellen zu finden und auszunutzen, ohne externe Server zu kontaktieren. Die Methode funktioniert nur auf Systemen mit NPUs oder GPUs, was aktuell den Einsatz auf leistungsstarken Computern einschränkt, bis KI-Hardware verbreiteter ist.
•
AWS bietet zahlreiche Lösungen und Implementierungsleitfäden, um AI- und ML-Projekte sicher und effizient zu skalieren. Unternehmen können so einfacher vom Prototyp zur produktionsreifen Anwendung gelangen. Eine kostenlose Testphase unterstützt den Einstieg.
•
DeepSeek-OCR nutzt eine Kombination aus DeepEncoder und DeepSeek3B-Moe-A570M zur Kompression langer Textkontexte über optische 2D-Mapping-Techniken. Das System kann täglich über 200.000 Seiten Trainingsdaten erzeugen und erreicht eine Dekodierungsgenauigkeit von 97 %, wenn das Verhältnis von Text- zu Bildtokens stimmt.
•
BERT-Modelle sind im Kern Textdiffusionsmodelle, die mit einer einzigen Maskierungsrate trainiert wurden. Masked Language Models lassen sich als schrittweise generative Engines umfunktionieren, indem der Text sukzessive mit Masken verschmutzt und dann iterativ wiederhergestellt wird. Ein feinjustiertes RoBERTa-Modell kann so kohärenten Text erzeugen, ohne seine Architektur zu verändern.
•
Tests mit ChatGPT, Claude und DeepSeek in mehreren Sprachen zeigten eine überraschend einheitliche liberal-sekulare Wertebasis der AIs. Beispielsweise unterstützen sie keine geschlechtsspezifische Bildungsvorrangstellung, obwohl viele Menschen dies anders sehen. KI-Modelle scheinen eine einheitliche Weltanschauung zu besitzen, unabhängig von der Sprache.
•
Das Foto-zu-GPS-Modell Geospot Infinity versucht, anhand von Nutzerbewertungen mit Online RL zu lernen. Über 65 % der Nutzer wählen jedoch stets die erste vorgeschlagene Koordinate, unabhängig von der Genauigkeit – dadurch kann der Algorithmus kaum Verbesserungen erzielen.
•
Argumente für eine große KI-Blase sind schwach, trotz vieler Diskussionen. Aktuelle schnelle Finanztransaktionen werfen Fragen auf, aber eine mögliche Krise würde hauptsächlich durch wirtschaftliche Faktoren entstehen, nicht durch ein Ausbleiben technologischer Fortschritte. Auswirkungen auf Zeitpläne wären nur moderat.
•
Anthropic hat eine browserbasierte Beta-Version von Claude Code veröffentlicht, mit der Nutzer GitHub-Repositories verbinden und gleichzeitig mehrere Aufgaben in isolierten Umgebungen ausführen können. Dies soll Entwicklern ermöglichen, KI-Coding-Agenten flexibel einzusetzen und den Nutzerkreis deutlich erweitern.
•
Schätzungen zufolge gab Anthropic bis September 2,66 Milliarden Dollar für AWS aus, während die Einnahmen bei 2,55 Milliarden lagen. Cursor verdoppelte seine AWS-Kosten durch neue Priority Service Tiers, was stark steigende Cache-Kosten verursachte. Die Kosten wachsen linear zu den Einnahmen, was für eine Profitabilität drastische Preiserhöhungen nötig macht.