Symbolbild Symbolbild 

Unicef fordert Vorgehen gegen KI-Nacktbilder von Kindern

Mithilfe von Künstlicher Intelligenz (KI) erzeugte sexualisierte Darstellungen von Kindern sollten nach Auffassung von Unicef wie echte Bilder als Kinderpornografie eingestuft und entsprechend unter Strafe gestellt werden. „Deepfake-Missbrauch ist Missbrauch, und nichts an dem Schaden, den er verursacht, ist ,Fake'“, erklärte das UN-Kinderhilfswerk am Mittwoch in New York.

Echt wirkende Bilder und Videos würden zunehmend genutzt, um sexualisierte Inhalte mit Kindern zu produzieren. Dabei kämen KI-Tools zum Einsatz, um Kleidung zu entfernen oder zu verändern, so dass gefälschte Nackt- oder sexualisierte Bilder entstünden. Nach einer Studie unter Beteiligung von Interpol seien im vergangenen Jahr Bilder von mindestens 1,2 Millionen Kindern zu sexuell eindeutigen Deepfakes manipuliert worden.

KI-Pornos normalisieren Ausbeutung

„Wird das Bild oder die Identität eines Kindes verwendet, dann wird dieses Kind direkt zum Opfer gemacht. Selbst wenn kein identifizierbares Opfer erkennbar ist, normalisieren diese KI-generierten Missbrauchsdarstellungen von Kindern die sexuelle Ausbeutung von Kindern", urteilte Unicef. Zudem schüre diese Praxis die Nachfrage nach Missbrauchs-Material und stelle die Strafverfolgungsbehörden vor erhebliche Herausforderungen bei der Identifizierung und dem Schutz von Kindern, die Hilfe benötigten.

Regierungen sollten die Definition von sexualisierten Missbrauchsdarstellungen Minderjähriger um KI-generierte Inhalte erweitern und deren Erstellung, Beschaffung, Besitz und Verbreitung unter Strafe stellen, forderte die UN-Organisation. Entwickler und Digitalunternehmer müssten entsprechende Schutzvorkehrungen einführen. Die Firmen dürften sich nicht darauf beschränken, derartiges Material zu entfernen, „nachdem der Missbrauch stattgefunden hat“, so Unicef.

(kna - cs)

Danke, dass Sie diesen Artikel gelesen haben. Wenn Sie auf dem Laufenden bleiben wollen, können Sie hier unseren Newsletter bestellen.

04. Februar 2026, 17:45