Alibaba Cloud hat das Aegaeon-System vorgestellt, das den Einsatz von Nvidia-GPUs um 82 % senkt – von 1192 auf 213 GPUs für große KI-Modelle. Das System bündelt GPU-Ressourcen, sodass eine GPU gleichzeitig mehrere Modelle bedienen kann, was die Effizienz bei parallelen LLM-Workloads deutlich erhöht. Das System wurde bereits erfolgreich im Modell-Marktplatz getestet.
