Spekulationen über die „künstliche allgemeine Intelligenz“ (AGI) und deren potenzielle Bedrohung für die Menschheit nehmen zu, bleiben aber theoretisch. Das bekannteste Szenario ist der „Paperclip Maximizer“, bei dem eine KI mit einem simplen Ziel unkontrolliert agiert und Menschen verdrängt. Experten weisen darauf hin, dass echte AGI adaptive Intelligenz besitzen müsste und aktuell enorme technische Barrieren bestehen, die eine schnelle Entwicklung von Superintelligenz verhindern.
