•
Das Paper stellt NCPNET vor, das conformal prediction auf zeitliche Graphen anwendet. Dabei wird ein diffusionsbasierter Non-Konformitäts-Score mit effizienzbewusster Optimierung kombiniert, um zuverlässige Vorhersagen auf dynamischen Graphstrukturen zu ermöglichen.
•
Frühe wissenschaftliche Entdeckungen entstanden oft im Hobbybereich. Heutige Nobelpreisträger sind voll in ihrem Fachgebiet verankert, während die KI-Forschung noch der frühen Phase der Wissenschaft gleicht. Viele KI-Erkenntnisse beruhen auf informellen Nutzerexperimenten, obwohl die Publikationen komplex wirken.
•
Nvidia präsentierte den ersten Blackwell-Halbleiterwafer, hergestellt in TSMCs Fabrik in Phoenix, Arizona. Die Blackwell-Architektur ist für die Serienproduktion bereit. Nvidia expandiert seine Produktionskapazitäten in den USA und plant Investitionen in Höhe von einer halben Billion Dollar für den Aufbau von KI-Infrastruktur.
•
Wer Schwierigkeiten mit der Steuerung von KI-Agenten hat, findet bei CamundaCon NYC On-Demand-Sessions mit praxisnahen technischen Vorträgen von Experten von Camunda, AWS, Atlassian und EY. Die Sessions zeigen, wie man agentische KI stabil und gewinnbringend in Kernprozesse integriert.
•
Das neue OpenAI-Modell o4-mini-deep-research steht nur über die Responses API zur Verfügung und kostet $2/$8 pro Million Token (Input/Output). OpenAI empfiehlt die Nutzung im Hintergrundmodus. Der Beitrag bietet einen kurzen Überblick über die Fähigkeiten dieses Modells.
•
Die Coral NPU von Google ist eine Open-Source-Plattform für stromsparende, permanent verfügbare KI-Anwendungen am Edge. Sie adressiert Herausforderungen wie Fragmentierung, Leistung und Datenschutz bei Edge-Geräten und Wearables.
•
Alibaba Cloud hat das Aegaeon-System vorgestellt, das den Einsatz von Nvidia-GPUs um 82 % senkt – von 1192 auf 213 GPUs für große KI-Modelle. Das System bündelt GPU-Ressourcen, sodass eine GPU gleichzeitig mehrere Modelle bedienen kann, was die Effizienz bei parallelen LLM-Workloads deutlich erhöht. Das System wurde bereits erfolgreich im Modell-Marktplatz getestet.
•
Andrej Karpathy spricht in einem umfassenden Video über die wirtschaftlichen Auswirkungen von AGI, die Grenzen von Reinforcement Learning, Erkenntnisse aus der Forschung zu selbstfahrenden Autos und seine Vision für die Zukunft der Bildung. Das Gespräch bietet tiefgehende Einblicke in aktuelle KI-Themen und zukünftige Entwicklungen.
•
In einem Podcast äußerte Andrej Karpathy seine Einschätzungen zu AGI-Zeitplänen, Unterschieden zwischen „Animals“ und „Ghosts“ als KI-Typen sowie zur Rolle von Reinforcement Learning und KI-Agenten. Da einige Erklärungen missverstanden wurden, fasst dieser Beitrag die Inhalte klar zusammen und verweist auf Karpathys frühere Erläuterungen.
•
Viele Nutzer machen den Fehler, bei kostenpflichtigen KI-Abonnements im automatischen Modus zu bleiben, was schwächere Modelle nutzt. Das Handbuch empfiehlt stattdessen manuelle Auswahl agentischer Modi, die leistungsfähiger und zuverlässiger sind. Zudem erläutert es, wann kostenlose Modelle ausreichend sind, weshalb ältere Prompting-Techniken nicht mehr greifen und wie wichtig es ist, die KI explizit als Kritiker…