Diffusions-Sprachmodelle generieren Code schneller als große Sprachmodelle, da strukturierte Ausgaben geringere Entropie aufweisen und somit mehr Token parallel pro Schritt decodieren können. Tests zeigen, dass vor allem die Struktur des Outputs für die Geschwindigkeit relevant ist, nicht etwa die Erinnerung an Trainingsdaten.
