Wissenswertes

  • Kleine KI-Modelle statt großer Hype: Der praktische Nutzen

    Kleine Sprachmodelle leisten in Firmen oft den Großteil der Arbeit und ermöglichen Produktivitätssteigerungen bei geringeren Kosten. Sie sind oft besser geeignet und werden geschickt miteinander verknüpft, um komplexe Aufgaben zu lösen. Viele Unternehmen etablieren interne Wissensfabriken aus solchen modularen KI-Komponenten.

  • AI-generierte Musiker erobern die Billboard-Charts

    In den letzten Wochen schafften es AI-erzeugte Künstler regelmäßig in die Billboard-Charts. Die Künstlerin Xania Monet erreichte sogar Platz 1 der R&B-Verkaufscharts und sicherte sich einen Plattenvertrag im Wert von mehreren Millionen Dollar.

  • Metas „Agenten-Regel Zwei“ für KI-Sicherheit

    Meta schlägt die „Agenten-Regel Zwei“ vor, um Risiken durch Prompt-Injektionen bei KI-Agenten zu minimieren. Ein Agent darf darin pro Sitzung höchstens zwei von drei Fähigkeiten besitzen: Umgang mit unzuverlässigen Eingaben, Zugriff auf private Daten und Ausführung externer Aktionen. Diese Beschränkung soll Sicherheitslücken verringern.

  • Moderne OCR-Modelle erläutert

    Neueste OCR-Modelle wie Chandra und Deepseek ersetzen klassische Skripte durch Vision Transformer, die Pixel in semantische Token umwandeln. Dieser Prozess ermöglicht präzise und kontextabhängige Texterkennung mit etwa zehnfacher Kompression der visuellen Daten. Modelle passen sich flexibel an verschiedene Schriftarten und Handschriften an, ohne neu trainiert werden zu müssen.

  • KI-Rollout meistern: Erkenntnisse von Atlassian und Udemy

    Atlassian zeigt, wie Unternehmen durch Vereinfachung der Tech-Stacks, Standardisierung von Inhalten und den Aufbau einer AI-freundlichen Unternehmenskultur den KI-Einsatz erfolgreich gestalten können. Im Fokus stehen effektives Wissensmanagement mit Confluence und Rovo. Ein Leitfaden gibt praktische Empfehlungen für die Vorbereitung auf KI-Implementierungen.

  • OpenAI untersucht Leistungsprobleme bei Codex

    Nach Nutzerberichten über verschlechterte Codex-Performance setzte OpenAI ein Team ein, das Ursachen evaluiert und Fehler dokumentiert hat. Es fanden sich keine zentralen Fehler, aber mehrere kleinere Probleme: Ältere Hardware drosselt Leistung, ein Bug führte zu plötzlichem Sprachwechsel und Kontextkompression mindert Präzision bei langen Dialogen.

  • Sam Altman zu OpenAIs Umsätzen: Keine weiteren Fragen

    Sam Altman reagierte gereizt auf Nachfragen zu OpenAIs Finanzierung der 1,4 Billionen Dollar Verpflichtungen. Er erklärte, OpenAI generiere wesentlich mehr als zuvor berichtete 13 Milliarden Dollar Jahresumsatz und könnte bis 2027 die 100-Milliarden-Dollar-Marke erreichen. Ein Börsengang im Jahr 2026 wurde jedoch dementiert.

  • Interne Konflikte bei OpenAI enthüllt

    Ilya Sutskever und Mira Murati planten über ein Jahr, Sam Altman als OpenAI-CEO abzusetzen. Dario Amodei wollte Greg Brockman entlassen und selbst die Forschungsleitung übernehmen. Murati berichtete von inneren Machtkämpfen zwischen Altman, Daniela Amodei und anderen. Sutskever verfasste umfangreiche Memos für Altman-Absetzung, wobei OpenAI seine Rechtskosten übernimmt.

  • Warum verwenden KI-Modelle so viele Gedankenstriche?

    KI-Sprachmodelle setzen ungewöhnlich häufig Em-Dashes ein, sodass menschliche Nutzer diese aus Verwechslungsangst meiden. Das Vermeiden dieser Striche durch Prompts gestaltet sich schwierig. Forscher haben bislang keine abschließende Erklärung gefunden, warum Modelle diese Interpunktion so gerne nutzen. Der Artikel untersucht mögliche Ursachen.

  • Neues Siri nutzt Googles Gemini-Modell

    Eine überarbeitete Version von Siri soll im März nächsten Jahres eingeführt werden und basiert auf einem speziell angepassten Gemini-Modell von Google. Dieses Modell wird auf Apples Private Cloud Compute Servern laufen. Der Start von Apple Intelligence in China verzögert sich aufgrund regulatorischer Schwierigkeiten und wird nun gestaffelt erfolgen.