Menu
× Accueil Supprimer un compte Blog Extension Chrome En savoir plus

Les jeunes et l’IA : confier ses données intimes n’est pas sans risque

Une lycéenne de 16 ans qui demande à un chatbot s'il faut qu'elle quitte son copain. Un étudiant qui décrit ses crises d'angoisse à une intelligence artificielle plutôt qu'à un médecin. Un collégien qui raconte à ChatGPT sa journée parce que personne ne lui a posé la question à la maison…

Ces scènes ne relèvent malheureusement pas de l'anecdote : ce sont les usages massifs que documente l'enquête publiée le 5 mai par la CNIL et le Groupe VYV, réalisée par Ipsos BVA auprès de 3 800 jeunes de 11 à 25 ans en France, en Allemagne, en Suède et en Irlande.

Les chiffres méritent qu'on s'y arrête parce qu'ils racontent en creux une bascule générationnelle qui passe encore largement sous le radar des débats publics.

Psy 2.0

L’usage de l’IA est devenu trivial pour tout type de tâches ou de réfléxions. Mais il y a une utilisation qui interpelle dans l’usage qu’en font les plus jeunes : 33 % la considèrent comme un « psy » dans certains cas. Chez les jeunes qui souffrent d'anxiété, ce dernier chiffre grimpe à 46 %.

Un jeune Français sur quatre présente une suspicion de trouble anxieux généralisé, rappelle l'enquête. Pour cette population, l'IA conversationnelle est devenue un point d'entrée massif vers ce qui ressemble à un soutien psychologique.

Sauf qu'il ne s'agit pas d'un soutien psychologique : il s'agit d'un produit logiciel commercial dont le métier consiste à prédire la suite la plus plausible d'une conversation en s'appuyant sur les données fournies par l'utilisateur.

La fracture entre confiance et compréhension

Le décalage le plus parlant n'est pas dans les chiffres d'usage. Il est dans le rapport que les jeunes entretiennent avec ces outils.

  • 69 % estiment que l'IA donne des conseils fiables.

  • 56 % pensent qu'elle garde secrets les échanges.

  • 51 % croient qu'elle protège les informations qu'on lui confie.

  • 32 % seulement savent réellement ce qu'il advient de leurs données.

Autrement dit, les deux tiers des jeunes Français confient à un service qu'ils ne comprennent pas des informations qu'ils croient confidentielles. C'est cette ligne-là qui devrait alerter, plus encore que la part de ceux qui « parlent à une IA comme à un psy ». Croire à tort qu'elle est un coffre-fort est une erreur qui peut dans le temps s’avérer lourde de conséquences : profilage, fuites de données, etc. Ce sujet doit être traité au niveau politique et pédagogique.

L'étude Diplomeo relayée fin avril confirmait déjà la tendance : deux tiers des jeunes Français considèrent l'IA comme « un conseiller de vie ». Le glissement sémantique est révélateur. On ne consulte pas un conseiller de vie comme on consulte un moteur de recherche.

Des données qui dévoilent tout un pan d’intimité

Quand un adolescent décrit ses ruminations nocturnes à un chatbot grand public, il ne produit pas un message anonyme dans un océan de données. Il alimente, selon les services et leurs paramètres par défaut :

  1. Un historique conversationnel rattaché à un identifiant ou à un compte.

  2. Un éventuel jeu d'apprentissage qui peut servir à entraîner ou affiner des modèles.

  3. Des journaux techniques (heure, durée, IP, appareil) conservés pour des durées variables.

  4. Selon les éditeurs, des intégrations marketing, publicitaires ou de recherche.

Les politiques varient selon les éditeurs. Certains entraînent par défaut leurs modèles sur les échanges grand public (avec un opt-out enfoui dans les réglages) ; d'autres prévoient un opt-in explicite ou n'utilisent pas par défaut les conversations consommateurs. Dans tous les cas, ces paramètres sont rarement visibles pour un utilisateur jeune.

Et c'est sans compter que certains éditeurs n'ont aucune assise européenne directe, ce qui complique l'exercice des droits RGPD : droit d'accès, droit à l'effacement, droit d'opposition à un profilage. Sur le papier, ces droits s'appliquent à toute personne dans l'UE. Dans la pratique, exercer un droit d'accès auprès d'une plateforme américaine pour récupérer six mois de conversations intimes d'un mineur reste un parcours d'obstacles.

Le risque, c'est aussi le profil psychologique

Quand on parle « données personnelles », on imagine facilement un nom, une adresse, un numéro de carte. Le sujet, ici, est différent : les conversations avec une IA produisent des profils psychologiques détaillés. Vulnérabilités émotionnelles, traumatismes mentionnés, doutes sur la sexualité, conflits familiaux, état dépressif, idées suicidaires : autant d'éléments qu'un dossier médical traditionnel n'enregistre que rarement et qui se retrouvent collés à un compte sur lequel un éditeur privé a, en principe, la main. Or l'article 9 du RGPD range la santé mentale, l'orientation sexuelle ou les convictions parmi les « catégories particulières » de données, soumises à un régime de protection renforcé qui exige normalement un consentement explicite spécifique.

Ce profil-là est précieux, parce qu'il est exploitable. Pour de la publicité ciblée plus efficace. Pour des recommandations qui orientent les contenus vus. Demain, peut-être, pour un assureur, un employeur ou un service public, dans un croisement de données dont on n'a pas encore tracé toutes les frontières.

Ce que ça change concrètement

Pour les parents qui lisent ces lignes, la question n'est pas de savoir s'il faut « interdire l'IA » à un enfant : c'est largement perdu et probablement pas souhaitable. La question est plutôt celle d'un cadrage minimal :

  • ouvrir la conversation à la maison sur ce que ces outils sont (et ne sont pas), regarder ensemble les paramètres de confidentialité ;

  • désactiver l'entraînement quand c'est possible ;

  • expliquer la différence entre un moteur de prédiction et une oreille humaine ;

  • rappeler qu'un médecin de famille ;

  • une infirmière scolaire ou Fil Santé Jeunes (0 800 235 236) restent les bons interlocuteurs en cas de réelle difficulté psychologique.

Pour les jeunes utilisateurs, le réflexe utile tient en peu de choses : éviter de coller dans une conversation avec une IA des informations qu'on n'écrirait pas sur un mur d'école, partir du principe qu'un échange « anonyme » ne l'est jamais vraiment, savoir qu'on dispose de droits pour récupérer ou effacer ses données, même si l'exercer reste plus laborieux que cocher une case.

La CNIL annonce dans la foulée le lancement d'une plateforme européenne, AI*me, dédiée à la sensibilisation des jeunes sur ces enjeux. C'est un bon réflexe institutionnel. Probablement insuffisant. Tant que les paramètres par défaut des grands chatbots resteront orientés vers la collecte maximale et tant que la lecture des politiques de confidentialité demandera un master en droit, l'asymétrie d'information dénoncée par l'enquête restera entière.