L’UNICEF a lancé mercredi un appel urgent aux gouvernements pour criminaliser le matériel d’abus sexuel d’enfants généré par l’IA, citant des preuves alarmantes selon lesquelles au moins 1,2 million d’enfants dans le monde ont vu leurs images manipulées en deepfakes sexuellement explicites au cours de l’année écoulée. Les chiffres, révélés dans Disrupting Harm Phase 2, un projet de recherche dirigé par le Bureau de la stratégie et des preuves d’UNICEF Innocenti, ECPAT International et INTERPOL, montrent que dans certains pays, ce chiffre représente une enfant sur 25, l’équivalent d’un enfant dans une classe typique, selon une déclaration du mercredi et un résumé de l’enquête. La recherche, basée sur une enquête représentative au niveau national auprès d’environ 11 000 enfants dans 11 pays, met en lumière comment les auteurs peuvent désormais créer des images sexuelles réalistes d’un enfant sans leur implication ni leur connaissance.
Dans certains pays étudiés, jusqu’à deux tiers ont déclaré craindre que l’IA puisse être utilisée pour créer de fausses images ou vidéos sexuelles d’eux, bien que le niveau de préoccupation varie considérablement d’un pays à l’autre, selon les données. « Nous devons être clairs. Les images sexualisées d’enfants générées ou manipulées à l’aide d’outils d’IA sont du matériel d’abus sexuel d’enfants (CSAM) », a déclaré l’UNICEF. « L’abus par deepfake est un abus, et il n’y a rien de faux dans le mal qu’il cause. » L’appel devient plus urgent alors que les autorités françaises ont perquisitionné mardi les bureaux de X à Paris dans le cadre d’une enquête criminelle sur un supposé contenu pédopornographique lié au chatbot d’IA de la plateforme, Grok, avec la convocation d’Elon Musk et de plusieurs dirigeants pour un interrogatoire. Un rapport du Center for Countering Digital Hate publié le mois dernier estimait que Grok avait produit 23 338 images sexualisées d’enfants sur une période de 11 jours entre le 29 décembre et le 9 janvier.
Le résumé de l’enquête publié avec la déclaration souligne que ces développements marquent « une escalade profonde des risques auxquels les enfants sont confrontés dans l’environnement numérique », où un enfant peut voir son droit à la protection violé « sans jamais envoyer un message ou même en savoir que cela s’est produit ». L’Internet Watch Foundation du Royaume-Uni a signalé près de 14 000 images suspectes générées par l’IA sur un seul forum du dark web en un mois, environ un tiers étant confirmé comme criminel, tandis que les autorités sud-coréennes ont rapporté une multiplication par dix des infractions sexuelles liées à l’IA et aux deepfakes entre 2022 et 2024, la plupart des suspects étant des adolescents. L’organisation a urgemment appelé tous les gouvernements à élargir la définition du matériel d’abus sexuel d’enfants pour inclure le contenu généré par l’IA et à criminaliser sa création, son acquisition, sa possession et sa distribution. L’UNICEF a également exigé que les développeurs d’IA mettent en œuvre des approches de sécurité par conception et que les entreprises numériques empêchent la circulation de tels contenus. Le résumé appelle les États à exiger des entreprises qu’elles effectuent une diligence raisonnable en matière de droits de l’enfant, notamment des évaluations d’impact sur les droits de l’enfant, et que chaque acteur de la chaîne de valeur de l’IA intègre des mesures de sécurité, y compris des tests de sécurité avant la sortie pour les modèles open source. « Le mal causé par l’abus par deepfake est réel et urgent », a averti l’UNICEF. « Les enfants ne peuvent pas attendre que la loi rattrape son retard. » La Commission européenne a lancé le mois dernier une enquête officielle pour déterminer si X a violé les règles numériques de l’UE en ne empêchant pas Grok de générer du contenu illégal, tandis que les Philippines, l’Indonésie et la Malaisie ont interdit Grok, et les régulateurs du Royaume-Uni et d’Australie ont également ouvert des enquêtes.