•
Kleine Sprachmodelle leisten in Firmen oft den Großteil der Arbeit und ermöglichen Produktivitätssteigerungen bei geringeren Kosten. Sie sind oft besser geeignet und werden geschickt miteinander verknüpft, um komplexe Aufgaben zu lösen. Viele Unternehmen etablieren interne Wissensfabriken aus solchen modularen KI-Komponenten.
•
In den letzten Wochen schafften es AI-erzeugte Künstler regelmäßig in die Billboard-Charts. Die Künstlerin Xania Monet erreichte sogar Platz 1 der R&B-Verkaufscharts und sicherte sich einen Plattenvertrag im Wert von mehreren Millionen Dollar.
•
Meta schlägt die „Agenten-Regel Zwei“ vor, um Risiken durch Prompt-Injektionen bei KI-Agenten zu minimieren. Ein Agent darf darin pro Sitzung höchstens zwei von drei Fähigkeiten besitzen: Umgang mit unzuverlässigen Eingaben, Zugriff auf private Daten und Ausführung externer Aktionen. Diese Beschränkung soll Sicherheitslücken verringern.
•
Neueste OCR-Modelle wie Chandra und Deepseek ersetzen klassische Skripte durch Vision Transformer, die Pixel in semantische Token umwandeln. Dieser Prozess ermöglicht präzise und kontextabhängige Texterkennung mit etwa zehnfacher Kompression der visuellen Daten. Modelle passen sich flexibel an verschiedene Schriftarten und Handschriften an, ohne neu trainiert werden zu müssen.
•
Atlassian zeigt, wie Unternehmen durch Vereinfachung der Tech-Stacks, Standardisierung von Inhalten und den Aufbau einer AI-freundlichen Unternehmenskultur den KI-Einsatz erfolgreich gestalten können. Im Fokus stehen effektives Wissensmanagement mit Confluence und Rovo. Ein Leitfaden gibt praktische Empfehlungen für die Vorbereitung auf KI-Implementierungen.
•
Nach Nutzerberichten über verschlechterte Codex-Performance setzte OpenAI ein Team ein, das Ursachen evaluiert und Fehler dokumentiert hat. Es fanden sich keine zentralen Fehler, aber mehrere kleinere Probleme: Ältere Hardware drosselt Leistung, ein Bug führte zu plötzlichem Sprachwechsel und Kontextkompression mindert Präzision bei langen Dialogen.
•
Sam Altman reagierte gereizt auf Nachfragen zu OpenAIs Finanzierung der 1,4 Billionen Dollar Verpflichtungen. Er erklärte, OpenAI generiere wesentlich mehr als zuvor berichtete 13 Milliarden Dollar Jahresumsatz und könnte bis 2027 die 100-Milliarden-Dollar-Marke erreichen. Ein Börsengang im Jahr 2026 wurde jedoch dementiert.
•
Ilya Sutskever und Mira Murati planten über ein Jahr, Sam Altman als OpenAI-CEO abzusetzen. Dario Amodei wollte Greg Brockman entlassen und selbst die Forschungsleitung übernehmen. Murati berichtete von inneren Machtkämpfen zwischen Altman, Daniela Amodei und anderen. Sutskever verfasste umfangreiche Memos für Altman-Absetzung, wobei OpenAI seine Rechtskosten übernimmt.
•
KI-Sprachmodelle setzen ungewöhnlich häufig Em-Dashes ein, sodass menschliche Nutzer diese aus Verwechslungsangst meiden. Das Vermeiden dieser Striche durch Prompts gestaltet sich schwierig. Forscher haben bislang keine abschließende Erklärung gefunden, warum Modelle diese Interpunktion so gerne nutzen. Der Artikel untersucht mögliche Ursachen.
•
Eine überarbeitete Version von Siri soll im März nächsten Jahres eingeführt werden und basiert auf einem speziell angepassten Gemini-Modell von Google. Dieses Modell wird auf Apples Private Cloud Compute Servern laufen. Der Start von Apple Intelligence in China verzögert sich aufgrund regulatorischer Schwierigkeiten und wird nun gestaffelt erfolgen.