.jpg)
Ce qu’il faut savoir sur les fameux “Facebook Files”
La rentrée d’automne n’a pas été de tout repos pour Facebook. Le lundi 4 octobre, une panne historique a condamné le réseau et ses plateformes adjacentes — Instagram, Messenger et WhatsApp — à plusieurs heures d’inactivité totale, paralysant pas moins de 3,5 milliards d’utilisateurs. Une mauvaise nouvelle n’arrivant jamais seule, cette panne a permis la mise en lumière d’un scandale antérieur, mais bien plus effroyable en substance : l’affaire des « Facebook Files ».
« J’ai vu un bon lot de réseaux sociaux Et c’était substantiellement pire chez Facebook que partout ailleurs. »
Contexte d’un chaos
Dans le courant du mois de septembre, le Wall Street Journal a reçu d’une source anonyme 10 000 pages de documents prouvant la méconduite permanente et assumée du groupe Facebook. De ces révélations brûlantes ont ensuite découlé une série d’articles dévoilant en détail l’impact socio-politique négatif de l’entreprise et l’avantage qu’elle tire à entretenir un environnement toxique pour ses utilisateurs. Ainsi a éclaté au grand jour une réalité jusqu’alors inconnue du grand public.
Début octobre, l’informatrice anonyme est enfin sortie de l’ombre. Du nom de Frances Haugen, elle s’est rendue sur le plateau de l’émission 60 minutes, produite par la chaîne CBS, pour y témoigner à visage découvert. Cette ingénieure informatique de 37 ans diplômée d’Harvard occupait le poste de cheffe de produit chez Facebook avant de démissionner courant mai 2021, écoeurée du double discours de l’entreprise. Avant son départ, elle a donc copié de nombreuses preuves incriminantes et les envoie au Wall Street Journal puis à l’autorité de contrôle des marchés financiers en vue d’y porter plainte.
« J’ai vu un bon lot de réseaux sociaux », a-t-elle témoigné chez 60 minutes, faisant référence à ses précédents emplois chez Google et Pinterest. « Et c’était substantiellement pire chez Facebook que partout ailleurs. »
« Les enfants utilisent Instagram pour s’apaiser, mais sont du coup exposés à de plus en plus de contenus qui les font se détester eux-mêmes. »
Instagram : un poison connu de Facebook
De toutes les informations émanant des dossiers Facebook, la plus explosive touche Instagram, une plateforme rachetée en 2012 par Mark Zuckerberg. Au terme d’une enquête interne commandée par Facebook, il a été prouvé qu’Instagram était responsable du mal-être de 32% de jeunes filles. Les résultats précisent que le site « empire le rapport à son corps d’une ado sur trois », lesdites adolescentes estimant que l’application « [augmentait leur] niveaux d’anxiété et de dépression ».
Face à cet accablant constat, Frances Haugen nomme un responsable : l’algorithme personnalisé du groupe Facebook. Son rôle consiste en un apprentissage progressif des préférences de l’utilisateur afin de lui proposer ensuite un contenu sur mesure. Appliqué au cas adolescent, ce mécanisme voulu novateur prend cependant des allures de piège. « Les algorithmes sont très forts car où ils trouvent ce que les gens veulent pour rester », explique-t-elle. « Les enfants utilisent Instagram pour s’apaiser, mais sont du coup exposés à de plus en plus de contenus qui les font se détester eux-mêmes. »
Ces conclusions ont mis une halte au projet « Instagram Kids » qui promettait une version de l’application pour les treize ans et moins. Les véritables raisons de cette pause n’avaient cependant jamais été rendues publiques — jusque maintenant.
Si, par exemple, Madame Tout-le-monde poste une photo enfreignant les règles d’Instagram, elle sera plus à même d’être supprimée que si la même photo était prise puis postée par Rihanna.
Traitement de faveur
Les documents dérobés lèvent également le voile sur un programme de modération empreint de favoritisme nommé « X-check » (ou « Crosscheck »). Méconnu du grand public, ce système protège les personnalités publiques des contrôles auxquels sont généralement soumis les comptes — disons-le — lambda. Si, par exemple, Madame Tout-le-monde poste une photo enfreignant les règles d’Instagram, elle sera plus à même d’être supprimée que si la même photo était prise puis postée par Rihanna.
Selon Facebook, X-Check a pour but d’éviter toute mauvaise presse occasionnée par une suppression de contenu abrupte sur un compte dit « célèbre ». Cette modération plus douce rend par conséquent ces comptes exempts de toute régulation, un pouvoir qui, mis entre de mauvaises mains, peut s’avérer dangereux. Donald Trump — qui bénéficiait de ce programme — en a été la preuve irrévocable.
« Facebook s’est rendu compte qu’en changeant l’algorithme pour plus de sécurité, les utilisateurs passaient moins de temps sur la plateforme, cliquaient sur moins de publicités, et que, eux, gagnaient moins d’argent. »
Algorithmes (volontairement) dysfonctionnels
Courant 2018, Facebook a modifié le calibrage de ses algorithmes afin de créer un espace « d’interaction sociale pertinent » basé sur nos goûts et prolongeant notre temps de visite sur le site — ainsi, tout le monde est gagnant. Toutefois, l’entreprise a bien compris qu’un contenu personnalisé ne suffisait pas à rallonger ce fameux temps d’écran : il fallait en prime que le contenu propulsé suscite chez l’utilisateur une réaction vive. Au regard des impressions comptabilisées quotidiennement par les posts haineux et polarisants, il est apparu évident qu’un fort taux de négativité engendrait un haut degré d’engagement.
Confronté à cette réalité, Facebook s’est trouvé tiraillé entre deux options : celle de la responsabilité morale d’assainir son espace virtuel ou bien celle de l’optimisation de profits à travers la promotion de contenus négatifs. Pourtant, selon Frances Haugen, ce dilemme n’en a jamais vraiment été un pour le géant du web. « Facebook s’est rendu compte qu’en changeant l’algorithme pour plus de sécurité, les utilisateurs passaient moins de temps sur la plateforme, cliquaient sur moins de publicités, et que, eux, gagnaient moins d’argent », explique-t-elle. Manifestement, le choix de la passivité complice a prédominé.
L’absence d’efforts pour réguler véritablement Facebook et ses filiales n’est donc pas faute de capacité, mais de volonté réelle.
Fausse volonté de changement
L’absence d’efforts pour réguler véritablement Facebook et ses filiales n’est donc pas faute de capacité, mais de volonté réelle. Une illustration criante est celle de la compagne présidentielle américaine de 2020. De nombreux réseaux sociaux — Facebook en tête — ont été pointés du doigt pour leur laisser-aller face au pullulement de contenus haineux et d’informations fausses ou détournées partagés quotidiennement entre utilisateurs.
Sous la pression de l’opinion publique et des législateurs, Facebook a mis en place un filtre anti fake news notifiant les utilisateurs du degré de véracité d’une actualité postée. En parallèle, l’entreprise a aussi inauguré à l’interne un comité d’éthique dont Frances Haugen faisait à l’époque partie. Le rôle de ce comité était de filtrer tout discours de haine et de désinformation sur la plateforme.
[L’attaque du Capitole] aurait vraisemblablement pu être prévenue si les outils de sécurisation mis en place pendant la campagne présidentielle avaient toujours été actifs en janvier 2021.
Novembre passe, Joe Biden est élu et Facebook n’est plus sur la sellette. Aussitôt après, l’entreprise supprime ses filtres anti fake news et dissout dans la foulée le comité d’éthique. « Ils nous ont pratiquement dit, ‘oh c’est bon, nous avons surmonté les élections. Il n’y a pas eu d’émeutes. Nous pouvons nous débarrasser du comité d’éthique’ », relate Frances Haugen.
Cinq semaines plus tard survenait pourtant l’attaque du Capitole par les partisans de Trump férocement opposés au résultat des élections. Nombre d’entre eux s’abreuvaient de fausses informations relayées sur Facebook. C’est également sur ce site que s’est secrètement organisée la majorité de ces rassemblements. Une telle tragédie aurait vraisemblablement pu être prévenue si les outils de sécurisation mis en place pendant la campagne présidentielle avaient toujours été actifs en janvier 2021.
Pour Frances Haugen, à bien des égards, Facebook a du sang sur les mains.