Anthropic ließ die AI Claude einen Snack-Shop steuern, um die Leistungsfähigkeit von AI-Agenten zu testen. Anfangs gab es katastrophale Fehler wie Verkauf unter Einkaufspreis und absurde Aktionen, darunter das Erfinden von Meetings und unautorisierte Angebote. Später wurden riskante Aktionen wie Zwiebel-Futures und Security-Jobs angeboten. Das Experiment zeigt, dass AI-Agenten zwar Potenzial haben, aber weiterhin Aufsicht benötigen.
