À l’ère du numérique, la photographie n’est plus un simple souvenir figé dans le temps. Elle est devenue une donnée, un matériau brut, un fragment d’identité numérique.
Pour faire supprimer un contenu qui bafoue vos droits, utilisez le service mis en place par le cabinet Murielle-Isabelle CAHEN.
Chaque jour, des millions d’adolescents publient des photos d’eux-mêmes sur des plateformes comme Instagram, TikTok ou Snapchat, souvent sans mesurer les conséquences à long terme de cette exposition. Ces images, partagées dans un cadre perçu comme ludique ou social, peuvent pourtant être détournées, manipulées et transformées en véritables armes numériques grâce aux progrès fulgurants de l’intelligence artificielle.
L’IA générative permet aujourd’hui de modifier un visage, un corps, une posture ou une expression avec une facilité déconcertante. Des technologies comme les deepfakes — initialement développées à des fins de recherche ou de divertissement — sont désormais accessibles au grand public via des applications ou des sites web en quelques clics. Selon un rapport de Sensity AI, plus de 90 % des deepfakes circulant en ligne sont à caractère pornographique, et une part croissante concerne des personnes mineures ou très jeunes (1)
Ce phénomène s’inscrit dans un contexte plus large de violences numériques, où l’image devient un moyen de pression, de chantage, d’humiliation ou de harcèlement. L’UNICEF alerte régulièrement sur l’augmentation du cyberharcèlement chez les adolescents, amplifié par l’usage détourné des technologies numériques.
Besoin de l’aide d’un avocat pour un problème de vie privée ?
Téléphonez – nous au : 01 43 37 75 63
ou contactez – nous en cliquant sur le lien
Ce qui rend la situation particulièrement préoccupante, c’est l’asymétrie entre la puissance des outils technologiques et la vulnérabilité des jeunes utilisateurs. Là où un adolescent voit une photo “banale”, un algorithme voit une base exploitable : traits du visage, expressions, morphologie, identité. L’IA ne se contente plus de copier le réel, elle le réinvente, souvent sans le consentement — et parfois sans même la connaissance — de la personne concernée.
Face à cette réalité, une question centrale s’impose : comment protéger les adolescents lorsque leurs propres images peuvent être retournées contre eux ? Et surtout, comment comprendre les mécanismes qui transforment une photo innocente en arme numérique ?
La surexposition des adolescents sur les réseaux sociaux n’est plus un phénomène marginal : elle constitue désormais une norme sociale. À l’adolescence, période charnière de construction identitaire, l’image joue un rôle central. Se montrer, se comparer, être vu et reconnu sont des besoins profondément ancrés dans cette tranche d’âge. Les plateformes numériques ont parfaitement intégré ces ressorts psychologiques et les exploitent à travers des interfaces conçues pour encourager le partage visuel constant.
Selon l’Organisation mondiale de la santé, l’adolescence est une phase de vulnérabilité émotionnelle accrue, où l’estime de soi dépend fortement du regard des autres (2)
Or, sur les réseaux sociaux, ce regard est quantifié : likes, commentaires, partages. Chaque photo devient un indicateur de valeur sociale. Cette logique pousse de nombreux adolescents à publier toujours plus d’images, parfois très personnelles, sans toujours mesurer les implications à long terme.
Les plateformes comme TikTok ou Instagram favorisent particulièrement les contenus mettant en avant le visage et le corps. Les algorithmes de recommandation privilégient les visages reconnaissables, expressifs, bien éclairés — exactement les conditions idéales pour l’entraînement et l’exploitation par des systèmes d’intelligence artificielle (3)
À cela s’ajoute un phénomène préoccupant : la décontextualisation de l’image. Une photo prise dans un cadre intime ou amical peut être sortie de son contexte initial, copiée, sauvegardée, redistribuée ailleurs, parfois des années plus tard. Pour un adolescent, une image publiée à 13 ans peut ressurgir transformée à 16 ou 17 ans, dans un contexte radicalement différent.
Enfin, il est important de souligner que cette surexposition n’est pas toujours volontaire. Parents, proches, établissements scolaires participent parfois à cette mise en visibilité involontaire, via ce que les chercheurs appellent le sharenting (partage parental de photos d’enfants) (4)
Ainsi, bien avant d’avoir conscience de leur identité numérique, certains adolescents disposent déjà d’une empreinte visuelle exploitable.
Là où une photo semblait autrefois figée et inoffensive, l’intelligence artificielle lui confère aujourd’hui une plasticité inquiétante. Grâce aux progrès de l’IA générative, une image peut être modifiée, animée, recomposée ou insérée dans un autre contexte avec un réalisme saisissant.
Les deepfakes reposent sur des modèles capables d’apprendre les traits d’un visage à partir de quelques images seulement. Une poignée de photos publiques suffit à générer des vidéos ou des images dans lesquelles la personne semble dire ou faire des choses qu’elle n’a jamais dites ou faites. (5)
Dans le cas des adolescents, les usages malveillants sont multiples :
Le caractère destructeur de ces pratiques tient au fait que l’image falsifiée est perçue comme une preuve, même lorsqu’elle est fausse. Dans l’imaginaire collectif, « voir, c’est croire ». Cette crédibilité visuelle rend la défense des victimes extrêmement difficile.
De plus, l’IA permet une industrialisation de la violence numérique. Là où un montage photo demandait autrefois du temps et des compétences, il est aujourd’hui possible de produire des dizaines de contenus truqués en quelques minutes.
Les conséquences psychologiques sont lourdes. Plusieurs études montrent un lien direct entre cyberharcèlement visuel et :
Dans ce contexte, la photo devient une arme non pas par sa nature, mais par l’usage technologique et social qui en est fait.
Sur le plan juridique, la protection des adolescents face à ces dérives se heurte à plusieurs obstacles majeurs. Certes, le droit à l’image, la protection de la vie privée et la lutte contre la pédocriminalité sont inscrits dans la loi. Mais l’IA bouleverse profondément ces cadres traditionnels.
Le Règlement général sur la protection des données (RGPD) reconnaît les données biométriques — dont le visage — comme des données sensibles (6)
Cependant, son application face aux deepfakes est complexe :
De nombreux contenus illégaux circulent pendant des semaines avant d’être retirés, malgré les signalements. Pour une victime adolescente, chaque jour compte : le temps numérique n’est pas neutre, il aggrave le traumatisme.
Les forces de l’ordre et les magistrats manquent encore de formation spécialisée sur les technologies d’IA, même si des initiatives émergent.
L’AI Act européen marque une avancée importante en classant certains usages de l’IA comme « à haut risque », mais son efficacité dépendra de sa mise en œuvre concrète et de sa capacité à évoluer face à des technologies en constante mutation.
Face à une menace aussi diffuse et rapide, la réponse ne peut être uniquement répressive. Elle doit être préventive, éducative et collective.
L’éducation au numérique apparaît comme un levier essentiel. Il ne s’agit pas de culpabiliser les adolescents pour leurs usages, mais de leur donner des clés de compréhension :
Des programmes d’éducation aux médias et à l’information (EMI) sont déjà mis en place dans les établissements scolaires, mais restent souvent insuffisants face à la rapidité des évolutions technologiques.
Les plateformes numériques ont également une responsabilité majeure. Certaines développent des outils de détection automatique des deepfakes, mais ces systèmes restent imparfaits. La logique économique — maximiser l’engagement — entre parfois en conflit avec la protection des utilisateurs les plus jeunes.
Enfin, les concepteurs d’IA doivent être pleinement intégrés à la réflexion éthique. Former des modèles capables de refuser la génération de contenus impliquant des mineurs est une nécessité absolue. L’OCDE insiste sur le principe de « responsabilité humaine » dans le développement de l’IA (7).
Pour lire une version plus courte de cet article sur les photos d’ados et l’IA, cliquez
Sources :
Cet article a été rédigé pour offrir des informations utiles, des conseils juridiques pour une utilisation personnelle, ou professionnelle. Il est mis à jour régulièrement, dans la mesure du possible, les lois évoluant régulièrement. Le cabinet ne peut donc être responsable de toute péremption ou de toute erreur juridique dans les articles du site. Mais chaque cas est unique. Si vous avez une question précise à poser au cabinet d’avocats, dont vous ne trouvez pas la réponse sur le site, vous pouvez nous téléphoner au 01 43 37 75 63.
Articles en relation