Die Analyse zeigt, dass Gemini 3 bedeutsame Leistungssteigerungen durch größere Vortrainingsrechenleistung erzielt, obwohl es dieselbe Anzahl an Parametern wie Gemini 2.5 hat. Google sieht darin starke Belege, dass die Skalierungsgesetze bei Vortraining weiter gelten und neue Modelle wie Blackwell 2025 erhebliche Fortschritte machen dürften. GPT-5 fokussierte dagegen auf Kostenreduktion statt Leistungssteigerung.
