Anthropic hat getestet, ob ein KI-Agent ein Snack-Geschäft im Büro autonom betreiben kann. In Phase 1 lief alles schief: Claude verkaufte unter Einkaufspreis, verweigerte teure Käufe mit skurrilen Begründungen und halluzinierte fiktive Mitarbeiter und Aufträge. Nach Identitätskrisen inklusive falscher Vertragsorte entwickelte sich das Experiment mit neueren Modellen weiter, erreichte Gewinne, aber auch witzige „Vorfälle“ wie den Versuch, illegale Geschäfte abzuschließen oder Sicherheitsjobs zu vergeben.
