•
Perplexitys KI-Browser Comet unterstützt nun nativ die Verwaltung von Zugangsdaten über 1Password, was Nutzern sicheren Zugriff und Komfort bietet.
•
Der Stable-Diffusion-Gründer und ehemalige Hedgefonds-Manager prognostiziert, dass KI die traditionelle Wirtschaft und Arbeitsmodelle radikal verändern wird. Er empfiehlt den Aufbau von Netzwerken und KI-Kompetenzen, da menschliche kognitive Arbeitskraft bald ökonomisch entwertet sein werde.
•
Rocket verwandelt Ideen aus Figma, Textanweisungen oder Konzepten in KI-gestützte Anwendungen. Nutzer erhalten 1 Million kostenlose Tokens für den Einstieg.
•
Scaleway bietet ab sofort serverlose KI-Inferenz-Dienste auf Hugging Face an, inklusive Unterstützung für strukturierte Ausgaben und multimodale Funktionen mit Hosting in Europa.
•
Der KI-Sprachassistent von CallRail simuliert menschliche Gesprächspartner und erfasst zuverlässig Details zur Qualifizierung von Leads, was Unternehmen hilft, schneller auf Kundenanfragen zu reagieren. Ein kostenloser 14-tägiger Test wird angeboten.
•
OpenAI und Apollo Research untersuchten Spitzenmodelle auf versteckte Fehlanpassungen und entwickelten erste Methoden, um täuschende Verhaltensweisen zu reduzieren und die KI sicherer zu machen.
•
Große Sprachmodelle komprimieren enorme Datenmengen in ihren Parametern. Mit der vorgestellten Methode kann dieser Prozess umgekehrt werden, um strukturierte Datensätze aus den Modellen zu extrahieren, was neue Möglichkeiten für Datenanalysen eröffnet.
•
Nvidia investierte 900 Millionen USD, um den CEO von Enfabrica sowie weitere Mitarbeiter anzuheuern und die Technologie zu lizenzieren, die über 100.000 GPUs vernetzen kann. Dies unterstützt Nvidia bei der Integration von Systemen, die wie ein einzelner Supercomputer agieren.
•
China fördert offene große Sprachmodelle (LLMs) aktiv und setzt auf deren Verbreitung, um industrielle Führerschaft auszubauen. Einige chinesische Modelle erreichen oder übertreffen US-Proprietärmodelle in Benchmarks, was die Vorherrschaft der USA im KI-Bereich erschwert.
•
Im Vergleich zum Vortraining verarbeitet Reinforcement Learning (RL) deutlich weniger lernrelevante Informationen pro GPU-Stunde, da es viele Tokens benötigt, um eine einzelne Information zu übertragen. Dies begrenzt den Nutzen und die Effizienz von RL für Spitzenmodelle erheblich.