•
Die großen Tech-Konzerne wie Meta, Alphabet, Microsoft und Amazon planen, in diesem Jahr 400 Milliarden Dollar in KI zu investieren. Trotz dieser enormen Summen betonen alle, dass dies nicht ausreiche. Für 2026 sind weitere Steigerungen der Ausgaben geplant, da der erste, der eine AGI (allgemeine KI) erreicht, einen enormen Wettbewerbsvorteil hätte.
•
Die Steigerung von KI-Fähigkeiten erfolgt entweder durch Erhöhung des Trainings-Computes (Reinforcement Learning) oder des Inferenz-Computes beim Einsatz. Aktuelle Fortschritte im RL stoßen auf hohe Kostengrenzen. Damit bleibt die Skalierung der Inferenz die zukunftsträchtige Methode, was unterschiedliche Auswirkungen auf KI-Entwicklung und -Einsatz hat.
•
OpenAI bietet über den App Store von Apple extra Credits für sein KI-Tool zur Videoerstellung Sora an. Für 4 US-Dollar erhält man 10 weitere Video-Generierungen. Derzeit sind täglich 30 kostenlose Generierungen möglich, diese Zahl soll zukünftig sinken, da OpenAI Sora monetarisieren will, u.a. durch Lizenzierung von urheberrechtlich geschütztem Material.
•
Scale AI und das Center for AI Safety haben neueste KI-Modelle auf 240 reale Freelance-Projekte von Plattformen wie Upwork getestet, um den Grad der Automatisierung von Remote-Arbeit durch KI zu messen. Die Studie zeigt konkrete Automatisierungspotenziale.
•
Obwohl das Aufsetzen von KI-Agenten einfacher wird, verlieren 62 % der Teams aufgrund von Zuverlässigkeitsproblemen Zeit oder Geld. Der Schlüssel fehlt offenbar in einer soliden Infrastruktur. Der 2025 Production AI Stack Report von Temporal liefert dazu wichtige Einblicke und Lösungen.
•
Ein kurzer Einblick, was hinter den Kulissen passiert, wenn ein neues KI-Modell veröffentlicht wird. Spannende Details zur Entwicklung und Markteinführung.
•
Der KI-Assistent Claude von Anthropic wird über AWS‘ verteiltes KI-Rechenzentrum betrieben, das drei US-Bundesstaaten umfasst und insgesamt 1 Gigawatt Leistung bereitstellt. Dies ermöglicht hohe Skalierung und Leistung.
•
Nachdem das Start-up wegen Klagen über Teenager-Suizide und verstärkter rechtlicher Kontrolle unter Druck geraten ist, plant es den Ausstieg aus dem offenen Chat-Zugang für Nutzer unter 18 Jahren bis zum 25. November.
•
Dieser Ansatz behandelt Claude Skills und ihren Enumerator als globale Ressourcen, die im Installationsordner von Codex hinterlegt sind. Ein Skript, das Skills auflistet, wird in den Systempfad gelegt, so dass Codex Skills in jedem Repository durch Ausführen dieses Skripts entdecken kann. Dadurch werden Claude Skills plattformübergreifend nutzbar.
•
SWE-1.5 ist ein Modell mit mehreren hundert Milliarden Parametern, das speziell auf Softwareentwicklung optimiert ist. Es erzielt fast state-of-the-art Leistung bei Codegenerierung und legt eine neue Messlatte für Geschwindigkeit. Eingesetzt in Windsurf, analysiert es große Codebasen, erstellt Full-Stack-Anwendungen und unterstützt einfache Konfigurationsänderungen.