•
In einem Podcast äußerte Andrej Karpathy seine Einschätzungen zu AGI-Zeitplänen, Unterschieden zwischen „Animals“ und „Ghosts“ als KI-Typen sowie zur Rolle von Reinforcement Learning und KI-Agenten. Da einige Erklärungen missverstanden wurden, fasst dieser Beitrag die Inhalte klar zusammen und verweist auf Karpathys frühere Erläuterungen.
•
Viele Nutzer machen den Fehler, bei kostenpflichtigen KI-Abonnements im automatischen Modus zu bleiben, was schwächere Modelle nutzt. Das Handbuch empfiehlt stattdessen manuelle Auswahl agentischer Modi, die leistungsfähiger und zuverlässiger sind. Zudem erläutert es, wann kostenlose Modelle ausreichend sind, weshalb ältere Prompting-Techniken nicht mehr greifen und wie wichtig es ist, die KI explizit als Kritiker…
•
Alibaba Cloud hat das Aegaeon-System vorgestellt, das den Einsatz von Nvidia-GPUs um 82 % senkt – von 1192 auf 213 GPUs für große KI-Modelle. Das System bündelt GPU-Ressourcen, sodass eine GPU gleichzeitig mehrere Modelle bedienen kann, was die Effizienz bei parallelen LLM-Workloads deutlich erhöht. Das System wurde bereits erfolgreich im Modell-Marktplatz getestet.
•
Die Gemini API bietet nun eine Integration von Google Maps, mit der Entwickler Karten- und Standortdaten in geobasierte KI-Anwendungen einbinden können. Diese Funktion verbessert Anwendungsfälle in Bereichen wie Reisen, Immobilien, Einzelhandel und Logistik durch genaue, standortbezogene Antworten. In Kombination mit der Google-Suche liefert die API strukturierte Daten und aktuelle Informationen für bessere Resultate.
•
Apple-Ingenieure, die iOS 26.4 testen, zweifeln trotz langer Entwicklungszeit an der Leistung von Siri. Es gibt zwei Siri-Modelle in Entwicklung: eines basiert auf geräteinternen Modellen, das andere nutzt Google Gemini. Diese Situation führt zu Verunsicherung über Apples KI-Strategie, mit möglicher Abhängigkeit von externen Anbietern.
•
Mit Geminis AI kannst du fotorealistische Szenen mit deinen Lieblingsfiguren erstellen, z. B. eine Collage beliebter Cartoon-Charaktere zusammen mit deinem eigenen Bild. Ein Beispiel-Prompt erzeugt eine dramatisch beleuchtete Pixar-ähnliche Szenerie mit bekannten Figuren wie Super Mario, Bugs Bunny oder SpongeBob, in professioneller Studioqualität. Der Workflow ist einfach: Bild im Gemini Studio hochladen, Prompt anpassen…
•
Google veröffentlichte Veo 3.1, ein Update für das AI-Video-Tool, das nun längere Videos mit nahtlos verketteten Clips und hoher Audio-Video-Qualität ermöglicht. Neu sind Kontrolloptionen für Start- und Endbilder, Multi-Image Inputs zur Kombination verschiedener Charaktere und Szenen, sowie die Möglichkeit, Charaktere mit Referenzbildern konsistent darzustellen. Außerdem kann man nachträglich Elemente hinzufügen, die Beleuchtung passt sich…
•
Claude bietet jetzt ein neues Feature namens „Skills“, das Chatbots ermöglicht, bei Bedarf spezialisierte Fähigkeiten zu laden – ähnlich einem Werkzeugkoffer mit Anleitungen, Vorlagen und kleinen Programmen. So kann Claude sein Basiswissen gezielt erweitern und z. B. auf firmenspezifisches Wissen, APIs oder automatisierte Workflows zugreifen. Die Skills können flexibel für personalisierte Aufgaben genutzt werden,…
•
Verkörperte KI erhält durch physische Körper Gestalt und kann so real mit der Umwelt interagieren. Teslas Robotaxi nutzt die ‚Tesla Vision‘ Technologie, ein Netzwerk von Kameras, das Echtzeitbilder verarbeitet. Mithilfe von Computer Vision erkennt es Verkehrsteilnehmer und Verkehrsregeln, schätzt Abstände und Geschwindigkeiten ein und trifft sichere Fahrentscheidungen, die von der KI umgesetzt werden.
•
Figure AI entwickelt humanoide Roboter, die ein bewusstes Körpergefühl ähnlich dem Menschen besitzen. Durch das GeMuCo-Modell (Generalized Multisensory Correlation Model) vergleichen Roboter ständig erwartete mit tatsächlichen Körperempfindungen, um ihre Bewegungen und Umwelteinflüsse besser zu verstehen und anpassen zu können. Dies schafft eine grundlegende körperliche Selbstwahrnehmung im Roboter.