•
Mehr als eine Milliarde Menschen nutzen AI-Chatbots regelmäßig. Neuere Modelle wie GPT-5 stehen auch nicht zahlenden Nutzern zur Verfügung. Intelligenz wird dadurch reichlich und günstiger – Unternehmen aller Größen müssen sich auf die Folgen einstellen, wenn Menschen KI mit übermenschlichen Fähigkeiten breit einsetzen.
•
Microsoft AI hat MAI-Voice-1 präsentiert, ein Sprachgenerierungsmodell, das eine Minute Audio in unter einer Sekunde erzeugen kann. Zudem wurde MAI-1-preview vorgestellt, ein „Mixture-of-Experts“-Basis-Modell, trainiert mit etwa 15.000 NVIDIA H100 GPUs. Die technischen Details sind noch unklar, doch zeigen die Modelle Microsofts Absicht, unabhängiger von OpenAI zu werden.
•
Um die eigene digitale Gesundheit zu stärken, ist bewusstes Nutzungsverhalten wichtiger als Bildschirmvermeidung. Ein einfacher Prompt an ChatGPT hilft, digitale Auslöser zu erkennen und Strategien für achtsamen Umgang mit Technik zu finden. Die Formel umfasst das Nennen des Kontexts, der eigenen Herausforderung und der bitte um umsetzbare Ratschläge.
•
Forschende des MIT Jameel Clinic haben „VaxSeer“ entwickelt, ein KI-Tool zur Vorhersage aggressiver Influenzaviren. Es nutzt Deep-Learning-Modelle, um die Wahrscheinlichkeit der Verbreitung verschiedener Grippeviren und die Schutzwirkung von Impfstoffen zu prognostizieren. Im Vergleich zur WHO konnte „VaxSeer“ in einem 10-Jahres-Rückblick bei A/H3N2 in 9 von 10 Jahren genauere Vorhersagen treffen. Verbesserte Virusstammauswahl verspricht dadurch…
•
Microsoft hat eigene KI-Modelle „MAI-Voice-1“ für Sprachsynthetik und „MAI-1-preview“ für allgemeine Anfragen veröffentlicht. Dies signalisiert den Wunsch, unabhängiger von OpenAI zu werden. Gleichzeitig verhandelt OpenAI mit Microsoft über eine Reduzierung der Umsatzbeteiligung von 20% auf 10% im Rahmen ihrer Partnerschaft. OpenAI plant, seine Struktur in eine öffentlich kontrollierte Delaware Public Benefit Corporation umzuwandeln, was…
•
PromptLock ist ein neu entdeckter Prototyp einer Ransomware, die OpenAIs gpt-oss-20b Modell nutzt, um schädlichen Code zur Datendiebstahl, Verschlüsselung oder Zerstörung zu generieren. Die Malware läuft lokal, vermeidet somit Online-Erkennung und generiert dabei per API bösartige Skripte dynamisch.
•
OpenAI und Anthropic haben sich gegenseitig internen API-Zugang gewährt, um gemeinsam KI-Sicherheitstests durchzuführen. Ziel ist es, Schwächen in der Modellbewertung aufzudecken und die Sicherheit der KI-Systeme zu verbessern.
•
Cloudflare nutzt die interne Plattform Omni, um auf Edge-Knoten mehr KI-Modelle mit weniger GPUs effizient zu betreiben. Omni ermöglicht das gleichzeitige Management mehrerer Modelle auf einem Gerät durch leichte Isolation, verbessert Verfügbarkeit, reduziert Latenz und verringert den Energieverbrauch durch inaktive GPUs.
•
Stax ist ein experimentelles Entwicklerwerkzeug, das den Evaluierungsprozess von großen Sprachmodellen (LLMs) automatisiert und verbessert. Es liefert klare Metriken, die eine datenbasierte Entscheidungsfindung ermöglichen, vermeidet mühsames subjektives Testen und erlaubt die Erstellung individueller Bewertungsmetriken und automatischer Bewertungssysteme.
•
Eine neue Open-Source-Plattform bietet zahlreiche Reinforcement-Learning-Umgebungen zur Förderung von “Open AGI” und lädt die Community ein, weitere Umgebungen beizutragen. Diese Ressource soll die Entwicklung intelligenter Agenten erleichtern und beschleunigen.