L'UNICEF appelle les gouvernements à criminaliser le contenu d'abus sexuels sur enfants généré par l'IA

Decrypt

En résumé

  • La recherche de l’UNICEF estime que 1,2 million d’enfants ont vu leurs images manipulées en deepfakes sexuels l’année dernière dans 11 pays sondés.
  • Les régulateurs ont intensifié leurs actions contre les plateformes d’IA, avec des enquêtes, des interdictions et des investigations criminelles liées à la génération de contenu illégal.
  • L’agence a appelé à des lois plus strictes et à des règles de « sécurité par conception » pour les développeurs d’IA, y compris des vérifications obligatoires de l’impact sur les droits de l’enfant.

L’UNICEF a lancé mercredi un appel urgent aux gouvernements pour criminaliser le matériel d’abus sexuel d’enfants généré par l’IA, citant des preuves alarmantes selon lesquelles au moins 1,2 million d’enfants dans le monde ont vu leurs images manipulées en deepfakes sexuellement explicites au cours de l’année écoulée. Les chiffres, révélés dans Disrupting Harm Phase 2, un projet de recherche dirigé par le Bureau de la stratégie et des preuves d’UNICEF Innocenti, ECPAT International et INTERPOL, montrent que dans certains pays, ce chiffre représente une enfant sur 25, l’équivalent d’un enfant dans une classe typique, selon une déclaration du mercredi et un résumé de l’enquête. La recherche, basée sur une enquête représentative au niveau national auprès d’environ 11 000 enfants dans 11 pays, met en lumière comment les auteurs peuvent désormais créer des images sexuelles réalistes d’un enfant sans leur implication ni leur connaissance. 

Dans certains pays étudiés, jusqu’à deux tiers ont déclaré craindre que l’IA puisse être utilisée pour créer de fausses images ou vidéos sexuelles d’eux, bien que le niveau de préoccupation varie considérablement d’un pays à l’autre, selon les données. « Nous devons être clairs. Les images sexualisées d’enfants générées ou manipulées à l’aide d’outils d’IA sont du matériel d’abus sexuel d’enfants (CSAM) », a déclaré l’UNICEF. « L’abus par deepfake est un abus, et il n’y a rien de faux dans le mal qu’il cause. » L’appel devient plus urgent alors que les autorités françaises ont perquisitionné mardi les bureaux de X à Paris dans le cadre d’une enquête criminelle sur un supposé contenu pédopornographique lié au chatbot d’IA de la plateforme, Grok, avec la convocation d’Elon Musk et de plusieurs dirigeants pour un interrogatoire. Un rapport du Center for Countering Digital Hate publié le mois dernier estimait que Grok avait produit 23 338 images sexualisées d’enfants sur une période de 11 jours entre le 29 décembre et le 9 janvier.

Le résumé de l’enquête publié avec la déclaration souligne que ces développements marquent « une escalade profonde des risques auxquels les enfants sont confrontés dans l’environnement numérique », où un enfant peut voir son droit à la protection violé « sans jamais envoyer un message ou même en savoir que cela s’est produit ». L’Internet Watch Foundation du Royaume-Uni a signalé près de 14 000 images suspectes générées par l’IA sur un seul forum du dark web en un mois, environ un tiers étant confirmé comme criminel, tandis que les autorités sud-coréennes ont rapporté une multiplication par dix des infractions sexuelles liées à l’IA et aux deepfakes entre 2022 et 2024, la plupart des suspects étant des adolescents. L’organisation a urgemment appelé tous les gouvernements à élargir la définition du matériel d’abus sexuel d’enfants pour inclure le contenu généré par l’IA et à criminaliser sa création, son acquisition, sa possession et sa distribution. L’UNICEF a également exigé que les développeurs d’IA mettent en œuvre des approches de sécurité par conception et que les entreprises numériques empêchent la circulation de tels contenus. Le résumé appelle les États à exiger des entreprises qu’elles effectuent une diligence raisonnable en matière de droits de l’enfant, notamment des évaluations d’impact sur les droits de l’enfant, et que chaque acteur de la chaîne de valeur de l’IA intègre des mesures de sécurité, y compris des tests de sécurité avant la sortie pour les modèles open source. « Le mal causé par l’abus par deepfake est réel et urgent », a averti l’UNICEF. « Les enfants ne peuvent pas attendre que la loi rattrape son retard. » La Commission européenne a lancé le mois dernier une enquête officielle pour déterminer si X a violé les règles numériques de l’UE en ne empêchant pas Grok de générer du contenu illégal, tandis que les Philippines, l’Indonésie et la Malaisie ont interdit Grok, et les régulateurs du Royaume-Uni et d’Australie ont également ouvert des enquêtes.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire