Menu
× Accueil Supprimer un compte Blog Extension Chrome En savoir plus

Algorithmes de recommandation : pourquoi votre fil n'est pas neutre et comment le reprendre

Un soir, vous ouvrez TikTok pour deux minutes. Une heure plus tard, vous avez l'impression d'avoir compris ce qui agite le monde. En réalité, vous n’avez vu qu’une partie du prisme. Celui que l’algorithme a calculé pour vous en s'appuyant sur tout ce qu'il sait de vous : vos pauses, vos likes, l'heure où vous scrollez, l'angle de votre téléphone. Ce fil n'est pas neutre. Il a une forme, une intention, un coût pour le débat public.

L'idée que les algorithmes « ne font que refléter nos goûts » est une fable rassurante. Dans De l'autre côté de la machine (Éditions de l'Observatoire, 2019), la scientifique Aurélie Jean rappelle que tout modèle est un choix : choix des données utilisées pour l'entraîner, choix des objectifs à optimiser, choix des sorties à privilégier. Quand un réseau social optimise le temps passé sur l'application, il découvre vite qu'un contenu clivant retient mieux qu'un contenu nuancé. Le système n'a pas d'opinion, il a une fonction objectif. Et cette fonction objectif a fini par dessiner, à grande échelle, ce qui ressemble à un débat public éditorialisé par des machines.

Ce que mange l'algorithme : vos données

Pour personnaliser, il faut profiler. Et pour profiler, il faut collecter. Chaque scroll, chaque pause de plus de deux secondes, chaque clic latéral, même la vitesse à laquelle vous tapez constituent un signal. À cela s'ajoutent les données fournies par votre navigation hors application : trackers publicitaires sur les sites visités, identifiants publicitaires de votre téléphone, achats en ligne reliés via des partenaires data. Le profil construit ne s'arrête pas à votre âge ou votre ville. Il décrit aussi vos vulnérabilités émotionnelles, vos sujets de fragilité, vos heures de baisse d'attention.

C'est pour cela que la régulation européenne a fini par traiter les systèmes de recommandation comme un sujet de données personnelles à part entière. Le RGPD encadre déjà le profilage à son article 22 : il prévoit le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé produisant des effets juridiques ou significatifs, ainsi que le droit d'obtenir une intervention humaine. Son application directe aux fils algorithmiques reste en débat. Le principe d'encadrement du profilage, lui, est posé. Le règlement sur les services numériques, dit DSA, pleinement applicable depuis février 2024, a ajouté une couche. Son article 27 impose à toutes les plateformes en ligne une transparence sur les « principaux paramètres » du système de recommandation. Son article 38 va plus loin pour les très grandes plateformes désignées VLOPs par la Commission européenne (Facebook, Instagram, TikTok, X, YouTube et quelques autres) : il leur impose d'offrir au moins une option de fil non fondée sur le profilage.

Vos droits, en pratique

Trois leviers sont activables tout de suite.

Premier levier : exiger un fil non personnalisé sur les très grandes plateformes. L'option existe sur Instagram (passer en « Récents et favoris »), sur TikTok (basculer sur « Following » ou désactiver la personnalisation dans les paramètres), sur X (l'onglet « Following » plutôt que « For you »), sur YouTube (désactiver l'historique de visionnage). Ce n'est pas confortable, la friction est volontairement maximisée. C'est un choix de design, pas une fatalité technique.

Deuxième levier : demander à la plateforme l'accès à vos données et la suppression des inférences, ces catégories d'intérêts déduites de votre comportement. La CNIL met à disposition des modèles de courriers et un service de plainte si la plateforme traîne ou refuse. Sur Meta comme sur Google, ces catégories d'intérêts sont accessibles dans les paramètres « Préférences publicitaires ». La plupart des utilisateurs sont sidérés par leur précision.

Troisième levier : signaler un contenu illicite ou manifestement préjudiciable via le mécanisme de notification rendu obligatoire par l'article 16 du DSA. La plateforme doit accuser réception et motiver sa décision, sous peine de sanction par les autorités nationales. En France, c'est l'Arcom qui joue le rôle de coordinateur des services numériques.

Ce qui ne marche pas et pourquoi

Soyons honnêtes : ces droits sont sous-utilisés et leur efficacité reste modeste. Le fil non personnalisé existe mais reste enfoui derrière trois ou quatre menus, la plupart des gens ne savent même pas qu'ils peuvent le réclamer. La transparence des « paramètres principaux » exigée par le DSA produit des paragraphes vagues qui n'expliquent ni les pondérations ni les boucles de renforcement. Quant à la suppression des inférences, elle est presque toujours partielle : les catégories disparaissent de l'interface, les modèles sous-jacents continuent de tourner sur des signaux dérivés.

C'est ici que la critique d'Aurélie Jean prend tout son sens. Tant que la fonction objectif des plateformes reste l'optimisation du temps passé ou, pire, du chiffre d'affaires publicitaire par utilisateur, les réglages cosmétiques ne renverseront pas la mécanique. Le DSA est un cadre utile : il introduit, à son article 37, une obligation d'audit annuel des systèmes par des tiers indépendants. C'est probablement par cette voie que viendront les vraies inflexions, bien plus que par les options utilisateur. Les premiers rapports d'audit indépendants exigés par cet article, dont les premiers ont été rendus publics en 2025, commencent à documenter des écarts entre ce que les plateformes affichent dans leurs déclarations et ce qu'elles optimisent réellement.

Reprendre une marge de manœuvre

À votre échelle, deux gestes ont un effet réel au-delà des paramètres in-app. Refusez la personnalisation publicitaire au niveau de votre système d'exploitation : sur iPhone, « Suivi » dans les paramètres de confidentialité bloque l'identifiant IDFA pour toutes les applications ; sur Android (à partir de la version 12), « Identifiant publicitaire » peut être supprimé dans les paramètres de confidentialité. Cela coupe une partie du carburant des algorithmes en amont des plateformes elles-mêmes.

Et puis, exigez périodiquement vos données. Ce n'est pas un geste anodin : chaque demande oblige la plateforme à mobiliser des moyens, chaque plainte CNIL nourrit le travail de l'autorité. Les sanctions de plusieurs centaines de millions d'euros prononcées ces dernières années ne sont pas tombées par hasard. Elles ont émergé d'un signal collectif, plainte après plainte, audit après audit.

Le débat algorithmisé n'est pas une fatalité technique. C'est le résultat d'un modèle économique précis, qui repose sur la captation de votre attention via la captation de vos données. Le citoyen n'a pas de bouton pour l'éteindre. Il a un bouton pour le ralentir. Chaque utilisateur qui s'en sert pèse, marginalement mais réellement, sur la trajectoire de cette industrie.