Écrit le .

Photos d’ados manipulées par l’IA : quand des images deviennent des armes

À l’ère du numérique, la photographie n’est plus un simple souvenir figé dans le temps. Elle est devenue une donnée, un matériau brut, un fragment d’identité numérique.
Pour faire supprimer un contenu qui bafoue vos droits, utilisez le service mis en place par le cabinet Murielle-Isabelle CAHEN.

Chaque jour, des millions d’adolescents publient des photos d’eux-mêmes sur des plateformes comme Instagram, TikTok ou Snapchat, souvent sans mesurer les conséquences à long terme de cette exposition. Ces images, partagées dans un cadre perçu comme ludique ou social, peuvent pourtant être détournées, manipulées et transformées en véritables armes numériques grâce aux progrès fulgurants de l’intelligence artificielle.

L’IA générative permet aujourd’hui de modifier un visage, un corps, une posture ou une expression avec une facilité déconcertante. Des technologies comme les deepfakes — initialement développées à des fins de recherche ou de divertissement — sont désormais accessibles au grand public via des applications ou des sites web en quelques clics. Selon un rapport de Sensity AI, plus de 90 % des deepfakes circulant en ligne sont à caractère pornographique, et une part croissante concerne des personnes mineures ou très jeunes (1)

Ce phénomène s’inscrit dans un contexte plus large de violences numériques, où l’image devient un moyen de pression, de chantage, d’humiliation ou de harcèlement. L’UNICEF alerte régulièrement sur l’augmentation du cyberharcèlement chez les adolescents, amplifié par l’usage détourné des technologies numériques.


Besoin de l’aide d’un avocat pour un problème de vie privée ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Ce qui rend la situation particulièrement préoccupante, c’est l’asymétrie entre la puissance des outils technologiques et la vulnérabilité des jeunes utilisateurs. Là où un adolescent voit une photo “banale”, un algorithme voit une base exploitable : traits du visage, expressions, morphologie, identité. L’IA ne se contente plus de copier le réel, elle le réinvente, souvent sans le consentement — et parfois sans même la connaissance — de la personne concernée.

Face à cette réalité, une question centrale s’impose : comment protéger les adolescents lorsque leurs propres images peuvent être retournées contre eux ? Et surtout, comment comprendre les mécanismes qui transforment une photo innocente en arme numérique ?

I – L’image des adolescents : une matière première idéale pour l’intelligence artificielle

A – La surexposition des jeunes sur les réseaux sociaux : un phénomène massif et banalisé

La surexposition des adolescents sur les réseaux sociaux n’est plus un phénomène marginal : elle constitue désormais une norme sociale. À l’adolescence, période charnière de construction identitaire, l’image joue un rôle central. Se montrer, se comparer, être vu et reconnu sont des besoins profondément ancrés dans cette tranche d’âge. Les plateformes numériques ont parfaitement intégré ces ressorts psychologiques et les exploitent à travers des interfaces conçues pour encourager le partage visuel constant.

Selon l’Organisation mondiale de la santé, l’adolescence est une phase de vulnérabilité émotionnelle accrue, où l’estime de soi dépend fortement du regard des autres (2)

Or, sur les réseaux sociaux, ce regard est quantifié : likes, commentaires, partages. Chaque photo devient un indicateur de valeur sociale. Cette logique pousse de nombreux adolescents à publier toujours plus d’images, parfois très personnelles, sans toujours mesurer les implications à long terme.

Les plateformes comme TikTok ou Instagram favorisent particulièrement les contenus mettant en avant le visage et le corps. Les algorithmes de recommandation privilégient les visages reconnaissables, expressifs, bien éclairés — exactement les conditions idéales pour l’entraînement et l’exploitation par des systèmes d’intelligence artificielle (3)

À cela s’ajoute un phénomène préoccupant : la décontextualisation de l’image. Une photo prise dans un cadre intime ou amical peut être sortie de son contexte initial, copiée, sauvegardée, redistribuée ailleurs, parfois des années plus tard. Pour un adolescent, une image publiée à 13 ans peut ressurgir transformée à 16 ou 17 ans, dans un contexte radicalement différent.

Enfin, il est important de souligner que cette surexposition n’est pas toujours volontaire. Parents, proches, établissements scolaires participent parfois à cette mise en visibilité involontaire, via ce que les chercheurs appellent le sharenting (partage parental de photos d’enfants) (4)

Ainsi, bien avant d’avoir conscience de leur identité numérique, certains adolescents disposent déjà d’une empreinte visuelle exploitable.

B – De la photo anodine à l’arme numérique : mécanismes et usages malveillants de l’IA

Là où une photo semblait autrefois figée et inoffensive, l’intelligence artificielle lui confère aujourd’hui une plasticité inquiétante. Grâce aux progrès de l’IA générative, une image peut être modifiée, animée, recomposée ou insérée dans un autre contexte avec un réalisme saisissant.

Les deepfakes reposent sur des modèles capables d’apprendre les traits d’un visage à partir de quelques images seulement. Une poignée de photos publiques suffit à générer des vidéos ou des images dans lesquelles la personne semble dire ou faire des choses qu’elle n’a jamais dites ou faites. (5)

Dans le cas des adolescents, les usages malveillants sont multiples :

  • Humiliation publique : insertion du visage dans des scènes dégradantes ou ridicules, diffusées dans un cadre scolaire ou communautaire.
  • Deepfakes pornographiques : phénomène particulièrement alarmant, touchant majoritairement des filles mineures, dont les visages sont collés sur des corps d’adultes dans des contenus sexuels.
  • Sextorsion : chantage à la diffusion d’images truquées, parfois utilisé pour obtenir de l’argent ou des images réelles supplémentaires.
  • Faux profils : usurpation d’identité à des fins de manipulation, de moquerie ou d’escroquerie.

Le caractère destructeur de ces pratiques tient au fait que l’image falsifiée est perçue comme une preuve, même lorsqu’elle est fausse. Dans l’imaginaire collectif, « voir, c’est croire ». Cette crédibilité visuelle rend la défense des victimes extrêmement difficile.

De plus, l’IA permet une industrialisation de la violence numérique. Là où un montage photo demandait autrefois du temps et des compétences, il est aujourd’hui possible de produire des dizaines de contenus truqués en quelques minutes.

Les conséquences psychologiques sont lourdes. Plusieurs études montrent un lien direct entre cyberharcèlement visuel et :

  • anxiété sévère
  • dépression
  • troubles du sommeil
  • idées suicidaires

Dans ce contexte, la photo devient une arme non pas par sa nature, mais par l’usage technologique et social qui en est fait.

II – Des réponses encore fragiles face à une menace systémique

A – Cadres juridiques, limites techniques et impunité numérique

Sur le plan juridique, la protection des adolescents face à ces dérives se heurte à plusieurs obstacles majeurs. Certes, le droit à l’image, la protection de la vie privée et la lutte contre la pédocriminalité sont inscrits dans la loi. Mais l’IA bouleverse profondément ces cadres traditionnels.

Le Règlement général sur la protection des données (RGPD) reconnaît les données biométriques — dont le visage — comme des données sensibles (6)

Cependant, son application face aux deepfakes est complexe :

  • Qui est responsable lorsque l’image est générée par une IA open source ?
  • Comment identifier l’auteur réel d’un contenu diffusé anonymement ?
  • Comment agir lorsque les serveurs sont situés hors de l’Union européenne ?

De nombreux contenus illégaux circulent pendant des semaines avant d’être retirés, malgré les signalements. Pour une victime adolescente, chaque jour compte : le temps numérique n’est pas neutre, il aggrave le traumatisme.

Les forces de l’ordre et les magistrats manquent encore de formation spécialisée sur les technologies d’IA, même si des initiatives émergent.

L’AI Act européen marque une avancée importante en classant certains usages de l’IA comme « à haut risque », mais son efficacité dépendra de sa mise en œuvre concrète et de sa capacité à évoluer face à des technologies en constante mutation.

B – Prévenir plutôt que réparer : éducation, plateformes et responsabilité collective

Face à une menace aussi diffuse et rapide, la réponse ne peut être uniquement répressive. Elle doit être préventive, éducative et collective.

L’éducation au numérique apparaît comme un levier essentiel. Il ne s’agit pas de culpabiliser les adolescents pour leurs usages, mais de leur donner des clés de compréhension :

  • comprendre ce qu’est une IA générative
  • savoir qu’une image peut être réutilisée indéfiniment
  • connaître ses droits et les démarches de signalement.

Des programmes d’éducation aux médias et à l’information (EMI) sont déjà mis en place dans les établissements scolaires, mais restent souvent insuffisants face à la rapidité des évolutions technologiques.

Les plateformes numériques ont également une responsabilité majeure. Certaines développent des outils de détection automatique des deepfakes, mais ces systèmes restent imparfaits. La logique économique — maximiser l’engagement — entre parfois en conflit avec la protection des utilisateurs les plus jeunes.

Enfin, les concepteurs d’IA doivent être pleinement intégrés à la réflexion éthique. Former des modèles capables de refuser la génération de contenus impliquant des mineurs est une nécessité absolue. L’OCDE insiste sur le principe de « responsabilité humaine » dans le développement de l’IA (7).

Pour lire une version plus courte de cet article sur les photos d’ados et l’IA, cliquez

Sources :

  1. https://sensity.ai/reports/
  2. https://www.who.int/news-room/fact-sheets/detail/adolescent-mental-health
  3. https://algorithmwatch.org/en/
  4. https://www.cnil.fr/fr/thematiques/enfants-et-ados
  5. L’UE enquête sur le X d’Elon Musk à propos des deepfakes sexuels IA de Grok
  6. FAQ | Conseil européen de protection des données
  7. Aperçu des principes de l’IA – OCDE. IA

Cet article a été rédigé pour offrir des informations utiles, des conseils juridiques pour une utilisation personnelle, ou professionnelle. Il est mis à jour régulièrement, dans la mesure du possible, les lois évoluant régulièrement. Le cabinet ne peut donc être responsable de toute péremption ou de toute erreur juridique dans les articles du site. Mais chaque cas est unique. Si vous avez une question précise à poser au cabinet d’avocats, dont vous ne trouvez pas la réponse sur le site, vous pouvez nous téléphoner au 01 43 37 75 63.

Articles en relation

La Cour de cassation protège mieux les propriétaires de marques face aux juges

Le droit des marques repose traditionnellement sur un équilibre délicat entre, d’une part, la sécurité juridique des tiers, assurée par le respect strict de délais de procédure clairement identifiés, et, d’autre part, la protection substantielle des droits du titulaire, laquelle s’inscrit dans une conception patrimoniale du droit de marque. Pour faire supprimer un contenu qui […]

Diffamation : retirer sa plainte ne blanchit pas l’accusé

La matière pénale de la presse, gouvernée principalement par la loi du 29 juillet 1881 sur la liberté de la presse, constitue depuis plus d’un siècle un droit dérogatoire, à la fois protecteur de la liberté d’expression et redoutablement formaliste pour les parties qui s’y engagent. (1) Pour faire supprimer un contenu qui bafoue vos […]

La vidéo truquée par l’IA : preuve fiable ou illusion dangereuse ?

À l’ère du numérique, la preuve connaît une mutation profonde et irréversible. Longtemps dominée par l’écrit, puis progressivement enrichie par la photographie et l’enregistrement sonore, elle trouve aujourd’hui dans la vidéo un vecteur d’information privilégié, souvent perçu comme le plus fidèle reflet de la réalité. Pour faire supprimer un contenu qui bafoue vos droits, utilisez […]

  Murielle Cahen . Politique de gestion données personnelles. Mentions légales. CGV. IDDN.