Das IVA-Framework trainiert Vision-Language-Action-Modelle, die Anweisungen, die auf falschen Annahmen beruhen, erkennen und darauf reagieren können. Dabei werden Klärungsstrategien und alternative Bezugnahmen genutzt, um Roboteraktionen sicherer zu machen.
