Good to Know

  • DeepSeek-OCR: Effizientes Training von LLMs und VLMs mit optischer 2D-Kodierung

    DeepSeek-OCR nutzt eine Kombination aus DeepEncoder und DeepSeek3B-Moe-A570M zur Kompression langer Textkontexte über optische 2D-Mapping-Techniken. Das System kann täglich über 200.000 Seiten Trainingsdaten erzeugen und erreicht eine Dekodierungsgenauigkeit von 97 %, wenn das Verhältnis von Text- zu Bildtokens stimmt.

  • Verhalten von AIs bleibt kulturübergreifend konsistent

    Tests mit ChatGPT, Claude und DeepSeek in mehreren Sprachen zeigten eine überraschend einheitliche liberal-sekulare Wertebasis der AIs. Beispielsweise unterstützen sie keine geschlechtsspezifische Bildungsvorrangstellung, obwohl viele Menschen dies anders sehen. KI-Modelle scheinen eine einheitliche Weltanschauung zu besitzen, unabhängig von der Sprache.

  • BERT als einzelner Schritt eines Text-Diffusionsmodells

    BERT-Modelle sind im Kern Textdiffusionsmodelle, die mit einer einzigen Maskierungsrate trainiert wurden. Masked Language Models lassen sich als schrittweise generative Engines umfunktionieren, indem der Text sukzessive mit Masken verschmutzt und dann iterativ wiederhergestellt wird. Ein feinjustiertes RoBERTa-Modell kann so kohärenten Text erzeugen, ohne seine Architektur zu verändern.

  • Online Reinforcement Learning bei Geospot Infinity scheitert am Nutzerverhalten

    Das Foto-zu-GPS-Modell Geospot Infinity versucht, anhand von Nutzerbewertungen mit Online RL zu lernen. Über 65 % der Nutzer wählen jedoch stets die erste vorgeschlagene Koordinate, unabhängig von der Genauigkeit – dadurch kann der Algorithmus kaum Verbesserungen erzielen.

  • AI-Blase: Krise wäre wirtschaftlich, weniger technologisch

    Argumente für eine große KI-Blase sind schwach, trotz vieler Diskussionen. Aktuelle schnelle Finanztransaktionen werfen Fragen auf, aber eine mögliche Krise würde hauptsächlich durch wirtschaftliche Faktoren entstehen, nicht durch ein Ausbleiben technologischer Fortschritte. Auswirkungen auf Zeitpläne wären nur moderat.

  • Claude Code jetzt webbasiert mit GitHub-Anbindung

    Anthropic hat eine browserbasierte Beta-Version von Claude Code veröffentlicht, mit der Nutzer GitHub-Repositories verbinden und gleichzeitig mehrere Aufgaben in isolierten Umgebungen ausführen können. Dies soll Entwicklern ermöglichen, KI-Coding-Agenten flexibel einzusetzen und den Nutzerkreis deutlich erweitern.

  • Anthropic und Cursor: AWS-Kosten überschreiten Einnahmen

    Schätzungen zufolge gab Anthropic bis September 2,66 Milliarden Dollar für AWS aus, während die Einnahmen bei 2,55 Milliarden lagen. Cursor verdoppelte seine AWS-Kosten durch neue Priority Service Tiers, was stark steigende Cache-Kosten verursachte. Die Kosten wachsen linear zu den Einnahmen, was für eine Profitabilität drastische Preiserhöhungen nötig macht.

  • Meta AI: Nutzerzahlen durch „Vibes“-Video-Feed stark gestiegen

    Nach dem Launch des KI-basierten Video-Feeds „Vibes“ bei Meta stiegen die App-Downloads und täglichen Nutzerzahlen deutlich an. Anthropic baut zudem Claude Code zu einem Web-Tool aus, das nun Pro- und Max-Nutzern zur Verfügung steht und jährlich über 500 Millionen Dollar Umsatz generiert.

  • Prompt Engineering: Von Selbstzweifeln zu Selbstvertrauen

    Selbstzweifel sind eine häufige Hemmung, ausgelöst durch Rückschläge oder Vergleiche. Ein einfacher ChatGPT-Prompt kann helfen, diesen inneren Kritiker zu überwinden, indem er einen Schritt-für-Schritt-Plan zur Umwandlung von Selbstzweifeln in Selbstvertrauen liefert. So wird die KI zum persönlichen Coach für mentale Veränderungen und mehr innere Stärke.

  • Trendige KI-Werkzeuge im Überblick

    Neue Tools erleichtern vielfältige Aufgaben: Bith.ai erstellt in Minuten ansprechende Videos, fundable analysiert und überwacht Startups, Strawberry bietet ein Team persönlicher KI-Begleiter, Life Story AI hilft bei der Niederschrift von Erinnerungen, und ExcelFormulaGPT wandelt Text in Excel-Formeln um. Ein stets aktuelles Toolkit mit den besten Tools ist verfügbar.