Menu
× Accueil Supprimer un compte Blog Extension Chrome En savoir plus

Deepfakes sexuels sur App Store et Play Store : les recours du citoyen

Le 15 avril 2026, le Tech Transparency Project a publié une enquête qui a fait réagir dans la journée Apple et Google. Les chercheurs ont identifié 95 applications de deepfakes sexuels (46 sur l'App Store, 49 sur le Play Store), totalisant 483 millions de téléchargements cumulés et 122 millions de dollars de revenus. Plus grave, 31 de ces applications étaient accessibles aux mineurs.

Ces outils, souvent commercialisés sous le vocable « nudify », permettent de générer à partir d'une photo habillée une version dénudée ou sexualisée de la personne représentée, sans son consentement. Les victimes sont, dans l'immense majorité des cas, des femmes et des adolescentes.

Un phénomène que les plateformes peinent à endiguer

L'enquête du Tech Transparency Project ne se contente pas de constater la présence de ces applications. Elle démontre que les moteurs de recherche internes d'Apple et Google orientent activement les utilisateurs vers ces outils, via des suggestions automatiques et des publicités payantes. Un premier rapport, publié en janvier 2026 par la même organisation, alertait déjà sur la disponibilité massive de ces applications. Trois mois plus tard, le constat s'est aggravé.

Suite à la publication du rapport, Google a annoncé le 15 avril avoir suspendu la plupart des applications identifiées et en avoir supprimé 7. Apple, plus discret, a retiré 15 applications sans communication publique. Ces retraits restent partiels : la recherche directe dans les stores permet toujours de trouver des alternatives.

Source : Tech Transparency Project, 15 avril 2026.

Ce que dit la loi française

En France, le cadre juridique applicable aux deepfakes sexuels s'est nettement durci depuis 2024. La loi visant à sécuriser et réguler l'espace numérique, punit de 2 ans de prison et 60 000 euros d'amende le fait de porter à la connaissance du public ou d'un tiers un contenu à caractère sexuel généré par un traitement algorithmique représentant une personne identifiable sans son consentement. La peine est portée à 3 ans et 75 000 euros lorsque la publication a eu lieu via un service de communication au public en ligne. Ce texte s'applique que la victime soit majeure ou mineure, le simple fait que la personne soit reconnaissable suffit.

RGPD et données biométriques. Le visage et la silhouette d'une personne identifiable sont des données à caractère personnel, et leur traitement pour produire une représentation modifiée relève du Règlement général sur la protection des données. L'article 9 du RGPD interdit par principe le traitement de données biométriques visant à identifier une personne physique, sauf consentement explicite ou base légale spécifique. Aucune des applications recensées ne remplit ces conditions.

DSA et obligations des plateformes. Le Règlement européen sur les services numériques, entré pleinement en application le 17 février 2024, impose aux très grandes plateformes (dont l'App Store et le Play Store, désignés comme tels par la Commission) de traiter diligemment les signalements de contenus illicites et de mettre en place des mécanismes internes de recours. Le non-respect peut donner lieu à des amendes allant jusqu'à 6 % du chiffre d'affaires annuel mondial.

Ce que vous pouvez faire concrètement

Si vous êtes victime d'un deepfake sexuel, ou si vous découvrez une application de ce type, plusieurs leviers existent. Ils sont cumulables.

1. Signaler l'application sur le store. Apple et Google proposent un formulaire de signalement au pied de chaque fiche d'application. Sélectionnez « contenu inapproprié » ou « violation des règles ». Le DSA (article 16) impose aux plateformes un traitement diligent et en temps opportun des signalements, ainsi qu'un dispositif interne de réclamation en cas de refus (article 20).

2. Signaler via Pharos. La plateforme officielle internet-signalement.gouv.fr permet au citoyen de signaler tout contenu illicite en ligne. La catégorie « violences sexuelles » couvre explicitement les deepfakes à caractère sexuel. Le signalement est transmis aux services de police et de gendarmerie.

3. Porter plainte. La plainte peut être déposée dans tout commissariat ou gendarmerie, ou en ligne via la plateforme THESEE pour les infractions numériques. Conservez les preuves (captures d'écran, URLs, éventuellement constat d'huissier). Pour les mineurs, le numéro 3018 (gratuit, confidentiel) accompagne les victimes et leurs familles dans le retrait des contenus.

4. Exercer vos droits RGPD. En tant que personne identifiable sur un contenu généré, vous pouvez demander à l'éditeur de l'application ou à la plateforme qui l'héberge :

  • le droit à l'effacement (article 17 du RGPD) ;

  • le droit d'opposition (article 21), à exercer pour des raisons tenant à votre situation particulière ;

  • Et plus directement applicable ici, l'interdiction de principe posée par l'article 9 du RGPD sur les données biométriques traitées sans consentement explicite, qui fonde une demande d'arrêt du traitement.

Si la demande reste sans réponse sous un mois (article 12 du RGPD), vous pouvez saisir la CNIL. Le droit au déréférencement, auprès des moteurs de recherche, permet en complément de faire disparaître un contenu des résultats affichés à partir de votre nom.

5. Demander le retrait auprès des hébergeurs. Si les images circulent sur des réseaux sociaux ou des sites spécialisés, les hébergeurs sont tenus, au titre du DSA (article 6) et de la LCEN, d'agir promptement pour retirer ou rendre inaccessible un contenu manifestement illicite une fois qu'ils en ont eu connaissance par une notification conforme (article 16 du DSA). La notification doit être documentée : un accusé de réception vous sera délivré.

Ce qui va bouger

Deux mouvements sont à surveiller dans les prochaines semaines.

D'abord, la question de la conformité des stores au DSA est clairement posée dans le débat public. L'App Store et le Play Store ayant été désignés comme très grandes plateformes par la Commission européenne, leurs pratiques en matière de modération peuvent faire l'objet d'enquêtes formelles au titre du DSA, avec des sanctions financières à la clé.

Ensuite, les associations de protection des mineurs (dont e-Enfance) plaident pour une obligation de vérification d'âge renforcée dans les stores, dans la continuité des débats en cours sur l'encadrement de l'accès des mineurs aux réseaux sociaux.

En attendant, la vigilance reste l'affaire de chacun. Signaler, documenter, faire valoir ses droits : chaque démarche fait pression sur les plateformes et alimente les procédures en cours.

Dans la même série