Prévenir la violence sexuelle : stratégies visant l’environnement numérique

La violence sexuelle peut survenir en ligne, notamment sur Internet ou par diverses technologies et appareils numériques, tels les téléphones intelligents, les ordinateurs ou les serveurs. Elle peut prendre la forme de harcèlement, de chantage, de menaces, de réception ou de publication non consensuelle d’images intimes, de leurre d’enfants et de matériel d’exploitation sexuelle d’enfants et de jeunes en ligne, aussi appelé pornographie juvénile.

Bien que la violence en ligne partage des facteurs communs à celle survenant hors ligne, certaines caractéristiques de l’environnement numérique peuvent créer un contexte propice à cette violence, comme l’anonymat, le partage rapide de contenu et l’absence ou le manque de modération sur certains sites1,2.

Des stratégies spécifiques à l’environnement numérique sont nécessaires pour assurer et renforcer la sécurité de toute la population dans ce contexte, surtout celle des filles et femmes qui sont particulièrement exposées à la violence en ligne3. Les enfants et les jeunes représentent aussi un groupe plus vulnérable face aux risques et aux dangers en ligne4.

Environnement numérique : facteurs et stratégies préventives

Exemples de facteurs liés à l’environnement numérique

Facteurs qui favorisent la violence

  • Caractéristiques de l’environnement numérique, comme l’anonymat, le partage rapide de contenu et l’absence de modération

Normes et standards pour protéger les enfants et les jeunes en ligne

L’imposition de règles, de normes et de standards à l’industrie numérique peut être utile pour protéger les enfants et les jeunes en ligne et afin d’assurer leur sécurité dans cet environnement. Certaines expertes, experts et organisations insistent pour que le bien-être et les droits des enfants soient une priorité dans la conception et la réglementation de technologies et d’applications5.

Par exemple, cela peut inclure les efforts visant à créer des applications qui sont sécuritaires « dès leur conception » pour les enfants et les jeunes, en les protégeant en amont des dangers et des risques. Les technologies et applications destinées à ce public devraient également être adaptées à leur âge et à leur stade de développement. Elles devraient aussi être transparentes au niveau de la gestion des informations personnelles et du contrôle parental4,6,7.

Mesures et lois imposées à l’industrie numérique

À l’échelle populationnelle, plusieurs mesures et sanctions peuvent être imposées à l’industrie numérique pour éliminer ou réduire les risques et les dangers en ligne, incluant ceux liés aux manifestations de la violence sexuelle en ligne. On retrouve par exemple la détection automatique de certains contenus préjudiciables, leur filtrage et leur retrait automatique4,8.

Plusieurs mesures et lois sont déjà mises en place pour détecter le matériel d’exploitation sexuelle d’enfants et de jeunes en ligne. Au Canada, les personnes ou les entités qui fournissent un service Internet au public sont tenues de signaler les sites connus ou soupçonnés de contenir ou véhiculer du matériel d’exploitation sexuelle d’enfants et de jeunes, en vertu de la Loi concernant la déclaration obligatoire de la pornographie juvénile sur Internet par les personnes qui fournissent des services Internet9.

D’autres mesures technologiques visent aussi à prévenir cette violence. Par exemple, des messages d’avertissement et des robots de conversation (chatbots) ont été développés pour apparaitre sur certains sites web et prévenir l’accès ou la diffusion de matériel d’exploitation sexuelle4,10,11. Des études évaluatives montrent que ces messages réduisent le nombre de recherches de matériel d’exploitation sexuelle d’enfants en ligne. Les robots de conversation qui partagent des ressources d’aide destinées aux personnes concernées par leur attirance sexuelle envers les enfants réussiraient aussi à rediriger certaines personnes vers ces ressources10,11.

Références

  1. UN Women (2022). Accelerating efforts to tackle online and technology-facilitated violence against women and girls, [en ligne], United Nations Entity for Gender Equality and the Empowerment of Women (UN Women), <https://www.unwomen.org/sites/default/files/2022-10/Accelerating-effort…; (consulté le 29 mai 2025).
  2. Henry, N., et A. Powell (2018). « Technology-Facilitated Sexual Violence: A Literature Review of Empirical Research », Trauma, Violence, & Abuse, vol. 19, n° 2, p. 195‑208.
  3. UN Women (2022). Accelerating efforts to tackle online and technology-facilitated violence against women and girls, [en ligne], UN Women, <https://www.unwomen.org/sites/default/files/2022-10/Accelerating-effort…; (consulté le 10 juillet 2025).
  4. World Health Organization (2022). What Works to Prevent Violence Against Children Online?, [en ligne], Geneva, World Health Organization, <https://iris.who.int/bitstream/handle/10665/364706/9789240062061-eng.pd…; (consulté le 26 mars 2025).
  5. Assemblée nationale du Québec (2025). Commission spéciale sur les impacts des écrans et des réseaux sociaux sur la santé et le développement des jeunes - Rapport, [en ligne], Québec, Assemblée nationale du Québec, <https://www.assnat.qc.ca/fr/actualites-salle-presse/communiques/communi…; (consulté le 6 juin 2025).
  6. Centre canadien de protection de l’enfance (2022). Analyse du contrôle du respect des classifications par âge des applis dans l’App Store d’Apple et Google Play, [en ligne], Centre canadien de protection de l’enfance, <https://content.c3p.ca/pdfs/C3P_AppAgeRatingReport_fr.pdf&gt; (consulté le 29 avril 2025).
  7. Grace, T. D., C. Abel et K. Salen (19 juin 2023). « Child-Centered Design in the Digital World: Investigating the Implications of the Age-Appropriate Design Code for Interactive Digital Media », dans Proceedings of the 22nd Annual ACM Interaction Design and Children Conference, [en ligne], New York, NY, USA, Association for Computing Machinery, p. 289‑297, <https://doi.org/10.1145/3585088.3589370&gt; (consulté le 1 mai 2025).
  8. Centre canadien de protection de l’enfance (2021). Projet Arachnid : L’accessibilité des images d’abus pédosexuels sur internet, [en ligne], Centre canadien de protection de l’enfance, <https://content.c3p.ca/pdfs/C3P_ProjectArachnidReport_fr.pdf&gt; (consulté le 18 octobre 2024).
  9. Loi concernant la déclaration obligatoire de la pornographie juvénile sur Internet par les personnes qui fournissent des services Internet, (23 mars 2011). <https://www.laws-lois.justice.gc.ca/fra/lois/I-20.7/page-1.html&gt; (consulté le 25 avril 2025).
  10. Price, S., N. McKillop, J. Scanlan, S. Rayment-McHugh, L. Christensen et J. Prichard (2024). « A review of digital interventions as secondary prevention measures to combat online child sexual abuse perpetration », Journal of Child Sexual Abuse: Research, Treatment, & Program Innovations for Victims, Survivors, & Offenders, p. No Pagination Specified.
  11. Hillert, J., L. S. Haubrock, A. Dekker et P. Briken (2024). « Web-Based Initiatives to Prevent Sexual Offense Perpetration: A Systematic Review », Current Psychiatry Reports, vol. 26, n° 4, p. 121‑133

Rédaction : Maude Lachapelle, conseillère scientifique, INSPQ
Collaboration : Anne-Sophie Ponsot, conseillère scientifique, INSPQ
Révision externe : Larissa Ouedraogo, M.Sc., agente de planification, de programmation et de recherche, direction régionale de santé publique, CIUSSS du Centre-Sud-de-l’Île-de-Montréal
Geneviève Paquette, Ph. D., professeure titulaire, département de psychoéducation, Université de Sherbrooke
Jacinthe Dion, Ph. D., professeure, département de psychologie, Université du Québec à Trois-Rivières

Dernière mise à jour :