Recursive Language Models (RLMs) zerlegen und interagieren rekursiv mit Eingabekontexten, was zu besseren Ergebnissen und Kosteneffizienz im Vergleich zu GPT-5 führt. Sie sind ein vielversprechender Schritt für die Skalierung genereller Inferenzmodelle.
