Deepfakes, clonage vocal et droit à l’image : comment protéger son identité à l’ère de l’IA ?
La récente démarche de Taylor Swift visant à protéger des éléments de son identité numérique par le droit des marques suscite une réflexion plus large sur les outils juridiques à notre disposition pour assurer une protection efficace.
L’intelligence artificielle générative ne se limite pas à la production de texte, d’images ou de musique. Elle permet également d’imiter une voix, de reproduire un visage, de créer une vidéo réaliste ou d’associer une personnalité à un message qu’elle n’a jamais prononcé.
Deux exemples récents illustrent cette tendance. Dans un contexte de multiplication des deepfakes et des faux contenus générés par IA, Taylor Swift a engagé des démarches auprès de l’office américain des marques pour protéger certains éléments de sa voix et de son image. Les demandes viseraient notamment des extraits sonores tels que “Hey, it’s Taylor Swift” et une image scénique associée à sa tournée. (1) En janvier 2026, l’acteur Matthew McConaughey a, de son côté, fait enregistrer plusieurs éléments associés à sa personnalité publique, dont sa célèbre expression “Alright, alright, alright”, ainsi que des échantillons sonores et visuels, afin de lutter contre les usages par IA, non autorisés. (2)
La question n’est pas de savoir si une personne peut “devenir propriétaire” de sa voix ou de son visage mais de déterminer les outils juridiques qui permettent de contrôler l’exploitation numérique de son identité physique. À l’ère des deepfakes, du clonage vocal et des avatars générés par IA, la problématique de la protection suppose de combiner plusieurs leviers, dont notamment le droit à l’image, le droit au respect de la vie privée, l’AI Act, sans oublier l’encadrement contractuel. La mise en place d’une stratégie de gouvernance de l’identité numérique doit également être envisagée.
1. Voix, image, apparence : l’IA générative bouscule les protections classiques
Jusqu’à récemment, l’atteinte à l’image ou à la voix supposait généralement la reproduction d’un contenu préexistant : photographie, vidéo, enregistrement sonore, ou interview. L’IA générative change la donne : elle ne se limite pas à reproduire un contenu existant, mais permet de créer un contenu nouveau, suffisamment réaliste pour laisser croire qu’une personne identifiable a réellement parlé, chanté, approuvé un produit ou tenu certains propos. C’est précisément ce réalisme qui crée le risque juridique : même lorsqu’il ne repose pas sur la copie directe d’une photographie, d’une vidéo ou d’un enregistrement, le contenu généré peut porter atteinte aux droits de la personne représentée.
Les deepfakes ne sont pas illicites par nature. Ils peuvent néanmoins le devenir selon les conditions de leur création, les données utilisées, la finalité poursuivie, le consentement obtenu et les modalités de diffusion du contenu.
Le risque ne concerne pas seulement les célébrités. Les entreprises peuvent être confrontées à des situations telles que la création d’une fausse vidéo d’un dirigeant annonçant une décision stratégique, un message vocal imitant un collaborateur pour déclencher une fraude, ou un avatar publicitaire utilisant l’apparence d’un influenceur sans son autorisation par exemple.
Selon la CNIL, les deepfakes (ou hypertrucages) peuvent porter atteinte à la vie privée et à la réputation. Leur création et leur partage peut engager la responsabilité de leurs auteurs. (3) En effet, un deepfake ne relève pas seulement du domaine de la propriété intellectuelle. Il peut également relever de la protection de la personne, de la responsabilité civile, du droit pénal, de la protection des données personnelles et, dans certains cas, du droit des marques.
L’enjeu porte sur les droits d’exploitation de l’identité numérique : voix, visage, gestuelle, silhouette, signature verbale, phrase culte, ou posture scénique. Ces éléments peuvent avoir une valeur économique et réputationnelle. Pour les entreprises qui recourent à l’IA dans leurs démarches marketing, ces éléments doivent être traités comme des actifs sensibles nécessitant un traitement juridique approprié.
2. Droit des marques, droit à l’image, RGPD, AI Act : quels sont les leviers de protection juridique ?
Plusieurs leviers juridiques complémentaires permettent d’appréhender la protection de l’identité numérique autour des droits de la personnalité, mais également le droit des marques, et désormais, le droit de l’intelligence artificielle.
2.1 Le droit au respect de la vie privée
Le droit au respect de la vie privée est consacré par l’article 9 du code civil. Les tribunaux, en application de ce principe, pourront ordonner des mesures propres à empêcher ou faire cesser une atteinte au respect de la vie privée de la personne, y compris par une action en référé.
Le droit à l’image, qui en est dérivé, impose en principe l’autorisation de la personne identifiable avant toute reproduction ou exploitation de son image, sous réserve notamment de l’information légitime du public. A noter que le droit à l’image des personnalités publiques est limité par le droit à l'information et la légitimité de l'actualité. Elles peuvent s'opposer à la diffusion de leur image si elle porte atteinte à leur vie privée, leur dignité ou est utilisée à des fins commerciales sans leur accord.
2.2 La protection des données personnelles
Les droits de la personne peuvent également être protégés via la protection des données personnelles. Une photo ou une vidéo peuvent être couvertes par le droit de la protection des données personnelles dès lors qu’elles comportent une ou plusieurs personnes identifiées ou identifiables.
Par ailleurs, un traitement dont la finalité est de permettre la reconnaissance d’un locuteur à partir de ses caractéristiques vocales constitue un traitement de données biométriques. Or, les données biométriques entrent dans la catégorie des données sensibles au sens de l’article 9 du RGPD.
Cependant, la voix n’est pas nécessairement une donnée biométrique en toutes circonstances. Elle le devient lorsque ses caractéristiques sont traitées dans le but d’identifier une personne de manière unique.
Ainsi, le responsable du traitement ne devra pas seulement poser la question “ai-je le droit d’utiliser cette voix ?”, mais aller au-delà en s’assurant de la conformité de l’utilisation de cette donnée personnelle sensible au RGPD, en respectant notamment les principes fondamentaux de la protection des données à caractère personnel et les droits de la personne concernée. (4)
2.3 Le droit pénal
L’article 226-8 du code pénal sanctionne la publication d’un montage réalisé avec les paroles ou l’image d’une personne sans son consentement, lorsqu’il n’apparaît pas clairement qu’il s’agit d’un montage ou lorsqu’il n’en est pas expressément fait mention. Depuis la loi SREN du 21 mai 2024, ce texte vise également certains contenus générés par traitement algorithmique. (5)
L’article 226-8-1 prévoit, quant à lui, une incrimination spécifique pour les montages à caractère sexuel réalisés avec les paroles ou l’image d’une personne sans son consentement, avec des peines aggravées en cas de diffusion via un service de communication au public en ligne.
2.4 Le droit des marques
Une marque peut prendre des formes variées, y compris sonores. Une marque sonore peut être composée d’un son ou d’une combinaison de sons. Elle peut notamment être représentée par une portée musicale ou un fichier MP3. Le signe doit pouvoir être représenté de manière claire et précise, afin que les tiers puissent déterminer l’objet de la protection.
Appliqué à la voix, cela signifie qu’un extrait sonore identifiable peut, en principe, être déposé comme marque s’il est distinctif. Une simple voix humaine, prise abstraitement, ne sera pas nécessairement protégeable. En revanche, une formule vocale, un jingle, une phrase permettant d’identifier une personne ou un son associé à une offre commerciale peuvent constituer un signe distinctif.
La protection par le droit des marques peut être efficace contre la reprise d’un signe enregistré ou d’une imitation créant un risque de confusion, mais elle ne couvre pas nécessairement toute imitation du timbre vocal ou du style personnel. Ainsi, les démarches de protection engagées par Taylor Swift et Matthew McConaughey n’ont pas pour objet d’obtenir un monopole global sur leur voix ou leur image, mais de protéger certains signes associés à leur personnalité.
Pour les entreprises qui exploitent une identité sonore ou visuelle forte telle qu’une voix identifiable associée à une campagne publicitaire, une signature sonore, une slogan parlé ou un personnage numérique, la protection par le droit des marques peut être utile. Une fois enregistrée, la marque permettra d’agir contre certains usages non autorisés dans la vie des affaires (action en contrefaçon par exemple). (6)
2.5 Le règlement sur l’intelligence artificielle (AI ACT)
Enfin, le règlement européen sur l’intelligence artificielle impose des obligations de transparence pour certains systèmes d’IA, notamment en matière de contenus générés ou manipulés artificiellement.
L’article 50 du règlement prévoit une obligation de transparence concernant les contenus générés par IA (images, sons et textes, y compris les deepfakes). Cette obligation d’information, via le marquage de ces contenus, entre en application le 2 août 2026.
Cependant, transparence ne vaut pas autorisation. Signaler qu’un contenu est généré par IA peut être nécessaire, mais cela ne suffit pas à rendre licite l’utilisation de l’image ou de la voix d’une personne à travers ce type de contenu. Une personne ou une entreprise qui génère un avatar ressemblant à un salarié, un artiste ou un influenceur devra toujours vérifier au préalable les droits accordés par cette personne, la base juridique du traitement et le cadre contractuel applicable.
3. Recommandations pratiques : construire une gouvernance de l’identité numérique
Pour les entreprises souhaitant utiliser l’image ou la voix de célébrités ou même de salariés pour des actions marketing ou publicitaires, la protection de leur identité numérique ne peut pas reposer sur un seul outil juridique. Cette démarche suppose la mise en oeuvre d’une stratégie globale de gouvernance combinant propriété intellectuelle, protection des données personnelles, contrats, et sécurité.
Cette stratégie de gouvernance s’appuiera sur les points suivants :
- Cartographier les éléments d’identité numérique utilisés par l’entreprise ou que l’entreprise souhaite utiliser (voix, images, avatars, signatures sonores, personnages, slogans parlés, …) et identifier les titulaires des droits sur ces éléments : artistes, influenceurs, salariés, banques de contenus, voire l’entreprise elle-même.
- Sécuriser les autorisations à travers la conclusion de contrats de cession de droits, de licence, de prestation audiovisuelle, de doublage, d’influence ou de production. Ces contrats devront préciser si l’image ou la voix peut être reproduite, modifiée, clonée, synthétisée, intégrée dans un modèle d’IA ou réutilisée pour générer de nouveaux contenus. À défaut, le risque est de découvrir que l’autorisation initiale ne couvre pas les contenus générés par l’IA.
- Envisager un dépôt de marque. Pour une entreprise dont l’image commerciale repose sur une identité sonore ou visuelle forte (telle que jingles, slogans sonores, personnages virtuels, etc.), la marque peut renforcer la protection. Le dépôt doit cependant être préparé avec soin : choix du signe, s’assurer de son caractère distinctif, classes de produits et services, y compris utilisation numérique, stratégie territoriale.
- S’assurer que l’utilisation de ces éléments d'identité numérique est conforme au RGPD. Lorsqu’une entreprise traite des voix, images ou vidéos permettant d’identifier une personne pour créer, des contenus grâce à un système d’IA, entraîner ou exploiter des contenus via l’IA, ces traitements doivent être dûment identifiés et gérés dans le respect des droits des personnes concernées.
- Sensibiliser les équipes marketing, communication, produit, RH et IT aux risques juridiques induits par la génération de contenus par système d’intelligence artificielle, et particulièrement en générant une voix “à la manière de”, en utilisant le visage d’une personne sans son accord, ou en créant un deepfake inspiré d’une personnalité réelle.
D’une manière générale, il est recommandé de mettre en place une charte IA couvrant notamment les usages autorisés, les validations juridiques nécessaires, les règles de relatives à la recherche de contenus, les obligations de transparence et les contrôles à effectuer avant publication.
Chaque avancée technologique crée un mouvement de disruption dans la société en général et dans la sphère juridique en particulier. L’arrivée de l’IA générative et son utilisation par le grand public ne fait pas exception à la règle. Ces systèmes créent une zone de risque particulière : un contenu peut être techniquement facile à produire, mais juridiquement difficile à sécuriser. Le fait qu’un outil permette de cloner une voix, de modifier un visage ou de générer une vidéo réaliste ne signifie pas que l’usage est autorisé.
L’IA générative, et particulièrement les deepfakes, ouvrent une nouvelle phase dans l’expansion de notre identité numérique. Dans ce contexte, la protection juridique de la voix, de l’image et des signes distinctifs personnels devient un enjeu majeur pour les personnalités publiques, les artistes ainsi que les entreprises qui exploitent des identités numériques reconnaissables.
(1) ” La chanteuse Taylor Swift veut faire de sa voix une marque déposée, sur fond de révolution IA"
(2) "Matthew McConaughey fait breveter son image pour la protéger de l’IA"
(3) Hypertrucage (deepfake) : comment se protéger et signaler les contenus illicites ?
(4) Voir chapitres II (art 5 et suivants) et III (art 12 et suivants) du RGPD
(5) art. 226-8 du code pénal : “Est puni d'un an d'emprisonnement et de 15 000 euros d'amende le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, le montage réalisé avec les paroles ou l'image d'une personne sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un montage ou s'il n'en est pas expressément fait mention. Est assimilé à l'infraction mentionnée au présent alinéa et puni des mêmes peines le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et représentant l'image ou les paroles d'une personne, sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un contenu généré algorithmiquement ou s'il n'en est pas expressément fait mention. (…)”
(6) L’article L.713-2 du code de la propriété intellectuelle interdit notamment, sauf autorisation, l’usage d’un signe identique à la marque pour des produits ou services identiques. Voir également l’article L.716-4 du code de la propriété intellectuelle sur la contrefaçon de marque
Bénédicte DELEPORTE
Avocat
Deleporte Wentz Avocat
www.dwavocat.com
Mai 2026