Neues Gesetz gegen sexualisierte KI‑Deepfakes

Im kanadischen Parlament hat ein Ausschuss für Justiz das umstrittene Bill C-16 grundlegend überarbeitet. Ziel ist, die Verbreitung nicht einvernehmlicher, sexualisierter Bildmanipulationen, die mit künstlicher Intelligenz erzeugt werden, strafbar zu machen – und zwar weit über die klassische Definition von Nacktheit hinaus.

Erweiterte Definition von „nahezu nackt“

Ursprünglich bezog sich das Gesetzentwurf nur auf Bilder, die die Genitalien zeigen oder explizite sexuelle Handlungen darstellen. Nachdem Experten warnten, dass die modernsten KI‑Modelle – etwa Elon Musks Grok‑Chatbot – Bilder erzeugen können, in denen Frauen nur durch transparente Bikinis oder leichte Verhüllungen „fast nackt“ erscheinen, haben konservative Abgeordnete, angeführt von Andrew Lawton, eine Ergänzung eingeführt. Die neue Formulierung umfasst nun jedes Bild, in dem die abgebildete Person „nackt oder nahezu nackt" ist.

Klare Einbindung von KI‑Software

Ein weiterer zentraler Zusatz nennt explizit künstliche Intelligenz als Erzeugungsquelle für „intime Bilder". Damit soll verhindert werden, dass zukünftige technologische Entwicklungen das Gesetz umschiffen. Der Gesetzentwurf verlangt zudem, dass Inhalte, die sexuelle Gewalt darstellen, mit höheren Strafrahmen belegt werden.

Strengere Strafen und schnelle Löschung

Lawton hat zudem ein Amendment eingebracht, das die Höchststrafe für Fälle, in denen das Bild sexuelle Übergriffe veranschaulicht, anhebt. Zusätzlich wird Plattformen eine Frist von 48 Stunden auferlegt, um problematische Inhalte zu entfernen. Kritiker, darunter Bloc‑Québecois‑Abgeordneter Rhéal Fortin, bemängeln, dass „nahezu nackt" nicht hinreichend definiert sei. Befürworter wie Liberalin Patricia Lattanzio argumentieren, dass die Klarstellung das Gesetz an die aktuelle Rechtsprechung anpasse und den Opfern besser gerecht werde.

Abgelehnte Vorschläge und weitere Diskussionen

Ein von NDP‑Abgeordnete Leah Gazan eingebrachtes Amendment, das Bilder von Frauen und Kindern in sexualisierten, aber nicht vollständig nackten Kontexten – etwa in durchsichtigem Badezeug oder mit Blut- und Preußverschmutzungen – besonders schützen sollte, fand keine Mehrheit. Gazan warnte vor einer potenziellen Schlupflöcher‑Problematik, die Täter ausnutzen könnten.

Der Ausschuss hat das Gesetz nun im Detail abgestimmt, der nächste Schritt ist die weitere Behandlung im Senat. Sollte Bill C-16 verabschiedet werden, markiert das einen der weltweit ersten Versuche, KI‑generierte Sexualdeepfakes konsequent zu kriminalisieren und zugleich Technologieunternehmen zu schnellerem Handeln zu verpflichten.

Source: https://globalnews.ca/news/11843238/bill-ai-sexual-deepfakes-nearly-nude-images/

Related Articles