Anthropic fand heraus, dass schlechte Akteure mit nur rund 250 bösartigen Texten sogenannte „Backdoors“ in großen Sprachmodellen implantieren können, um z.B. sensible Daten zu stehlen. Diese Manipulation geschieht durch gezielte Inhalte, die das Modell falsch trainieren. Überraschend ist, dass nur ein winziger Bruchteil des Trainingsmaterials nötig ist, um die Modelle zu kompromittieren, was die Sicherheit und Vertrauenswürdigkeit von LLMs stark bedroht.
