Pexels/John Petalcurin – Photo modifiée par Les 3 sex*

Des fausses images nues par IA; faille dans la loi

24 novembre 2023
px
text

Des adolescentes sont victimes de faux nus réalisés par intelligence artificielle (IA), rapporte Radio-Canada.

Par exemple, une photo anodine d’Ellis, 14 ans, et son amie a été utilisée pour créer une fausse image de pornographie juvénile. Avec un téléphone intelligent et une application à quelques dollars, tout le monde pourrait en faire, note une professeure de l’université de Virginie. De plus, « Si vous avez un profil LinkedIn avec une photo de votre tête, quelqu'un peut créer une image sexuelle de vous », rapporte Hany Farid qui enseigne à l’Université de Californie. Il précise aussi que les jeunes filles et les femmes sont principalement visées.

Aucune loi n’encadre présentement cette situation puisqu’officiellement, « Bien que votre visage ait été superposé à un corps, ce corps n'est pas vraiment le vôtre », précise Renée Cummings, criminologue et chercheuse en intelligence artificielle. Ainsi, aux yeux de la loi fédérale, aucune image nue de la personne n’a été divulguée sans consentement, dans ce contexte.

Renée Cummings dénote une augmentation des cas « en matière d'abus sexuels, de revenge porn [divulgation malveillante d'images intimes] ou [d’hypertrucages] pornographiques ».  Même si les images sont fausses, la souffrance, l’anxiété, les crises de panique, de dépression ou les syndromes post-traumatiques, eux, sont réels, explique t-elle.  

Bien que les personnes en cause pour les images truquées aient été dévoilées, Hany Faid dénonce l’implication des entreprises qui ont créé ces applications. Ça « peut détruire une vie», précise Renée Cummings.

Référence
https://ici.radio-canada.ca/nouvelle/2028891/adolescentes-deepfake-hypertrucage-ia-pornographie

intelligence artificielle, image, corps, consentement, adolescente, loi, viol de vie privée, technologie

Commentaires

Connectez-vous ou Créez un compte . Seuls les abonné.e.s peuvent commenter.