Unicef fordert Vorgehen gegen KI-Nacktbilder von Kindern
Echt wirkende Bilder und Videos würden zunehmend genutzt, um sexualisierte Inhalte mit Kindern zu produzieren. Dabei kämen KI-Tools zum Einsatz, um Kleidung zu entfernen oder zu verändern, so dass gefälschte Nackt- oder sexualisierte Bilder entstünden. Nach einer Studie unter Beteiligung von Interpol seien im vergangenen Jahr Bilder von mindestens 1,2 Millionen Kindern zu sexuell eindeutigen Deepfakes manipuliert worden.
KI-Pornos normalisieren Ausbeutung
„Wird das Bild oder die Identität eines Kindes verwendet, dann wird dieses Kind direkt zum Opfer gemacht. Selbst wenn kein identifizierbares Opfer erkennbar ist, normalisieren diese KI-generierten Missbrauchsdarstellungen von Kindern die sexuelle Ausbeutung von Kindern", urteilte Unicef. Zudem schüre diese Praxis die Nachfrage nach Missbrauchs-Material und stelle die Strafverfolgungsbehörden vor erhebliche Herausforderungen bei der Identifizierung und dem Schutz von Kindern, die Hilfe benötigten.
Regierungen sollten die Definition von sexualisierten Missbrauchsdarstellungen Minderjähriger um KI-generierte Inhalte erweitern und deren Erstellung, Beschaffung, Besitz und Verbreitung unter Strafe stellen, forderte die UN-Organisation. Entwickler und Digitalunternehmer müssten entsprechende Schutzvorkehrungen einführen. Die Firmen dürften sich nicht darauf beschränken, derartiges Material zu entfernen, „nachdem der Missbrauch stattgefunden hat“, so Unicef.
(kna - cs)
Danke, dass Sie diesen Artikel gelesen haben. Wenn Sie auf dem Laufenden bleiben wollen, können Sie hier unseren Newsletter bestellen.