Eingabeprompts werden bei OpenAI und Anthropic derzeit bei Cache-Nutzung bis zu zehnmal günstiger abgerechnet und verbessern zudem die Antwortzeit um bis zu 85 % bei langen Anfragen. In diesem Artikel wird erläutert, was genau zwischengespeichert wird und wie das Technikprinzip des Prompt Caching funktioniert.
