Das Modell DeepSeek-V3.2-Exp implementiert eine Sparse Attention, die Training und Inferenz bei langen Kontexten effizienter gestaltet. Diese Neuerung ermöglicht skalierbarere KI-Anwendungen mit langen Eingabe-Sequenzen.
DeepSeek-V3.2-Exp: Verbesserte Effizienz mit Sparse Attention
•