Innovatives AugmentERA Team entwickelt Augmented Reality Lösungen in modernem Büro.

Vielen Dank für Ihren Besuch und Ihr Interesse!

Für mehr Informationen über KI und die Integration in Ihr Unternehmen, treten Sie mit uns in Kontakt

Oder nehmen Sie an unserer Umfrage für eine kostenlose Analyse teil

Anthropic fand heraus, dass schlechte Akteure mit nur rund 250 bösartigen Texten sogenannte „Backdoors“ in großen Sprachmodellen implantieren können, um z.B. sensible Daten zu stehlen. Diese Manipulation geschieht durch gezielte Inhalte, die das Modell falsch trainieren. Überraschend ist, dass nur ein winziger Bruchteil des Trainingsmaterials nötig ist, um die Modelle zu kompromittieren, was die Sicherheit und Vertrauenswürdigkeit von LLMs stark bedroht.