#30 · Facebook a menti sur ses effets néfastes

Des documents rendus publics hier montrent que Zuckerberg et Facebook étaient au courant de nombreux effets néfastes mais les ont caché, y compris au Congrès américain

#30 · Facebook a menti sur ses effets néfastes

Je suis étonné du peu d’écho que trouvent en France et dans la communauté sceptiques les dernières révélations concernant Facebook, publiées hier à partir de documents internes ayant fuité grâce à des lanceurs d’alertes. Ces révélations pourraient pourtant constituer un point d’inflexion majeur et aboutir à des conséquences juridiques et politiques majeures et pour Facebook, et pour Big Tech de manière plus générale.

Dans l’ensemble, ces documents prouvent bon nombre de suspicions que nous pouvions avoir sur les effets néfastes de Facebook, le produit, et sur la manière dont ces effets néfastes sont gérés par Facebook, l’entreprise.

Ils prouvent également que Facebook et Mark Zuckerberg ont menti à de nombreuses reprises, y compris devant le Congrès américain, et que contrairement à leurs multiples dénégations, l’entreprise et son PDG sont au courant d’une myriade d’effets néfastes de leur produit sur les utilisateurs. La responsabilité juridique de Zuckerberg pourrait d’ailleurs être engagée, même si c’est encore loin d’être acquis.

Je ne vais pas faire un inventaire exhaustif de ce que contiennent ces documents. Voici toutefois quelques unes des révélations qui me semblent les plus notables. Je me base sur une série d’articles du Washington Post – qui a obtenu une copie de ces documents.

[MàJ 21h37 : voici un Google Docs qui contient tous les articles publiés à partir de ces documents]

COVID-19, désinformation et optimisation publicitaire

Depuis le début de la pandémie de COVID-19, il est clair que la désinformation est rampante sur les réseaux sociaux. Les sceptiques sont bien placés pour l’avoir observé. Non seulement Facebook est au courant de cette désinformation, mais a en plus étudié et identifié des solutions efficaces. Le problème ? Le refus de Zuckerberg de les mettre en place, car ces solutions contreviennent aux objectifs économiques de l’entreprise. Toutes les traductions sont de moi.

En avril 2020, Zuckerberg a commencé à ignorer ou à exprimer des réserves sur les propositions de chercheurs de réduire les discours de haine, la nudité, la violence visuelle et la désinformation, d’après l’un de ces documents. La pandémie venait de commencer et la désinformation à propos du coronavirus se diffusait. Les chercheurs ont proposé de limiter la diffusion dans le flux des contenus dont l’algorithme prédit qu’ils seront partagés en chaîne, parce que les partages en chaîne tendaient à être corrélés avec de la désinformation. Des tests préliminaires ont montré que cette limite réduit la désinformation sur le coronavirus jusqu’à 38%, d’après le document.
“Mark [Zuckerberg] ne pense pas que nous pourrions généraliser cette limite” a dit Anna Stepanov, la directrice ayant transmis le compte-rendu de la réunion avec Zuckerberg, à propos de la réponse du PDG à la proposition de changer l’algorithme. “Nous ne lancerions pas [la limitation] s’il y avait un arbitrage avec les MSI”.

Le partage en chaîne est lorsqu’une personne partage une publication, qui est ensuite repartagée par une autre, et ainsi de suite. Mais c’est surtout les MSI qui sont importantes ici.

Depuis 2018, Facebook utilise en effet cette mesure (MSI signifie “Meaningful Social Interactions”, ou “interactions sociales significatives”) comme critère principal pour optimiser son algorithme. Cette mesure est relativement simple et capture l’engagement “actif” des utilisateurs – typiquement, le nombre de commentaires y a un poids plus important qu’un simple like. L’objectif de Facebook est non seulement que ses utilisateurs passent du temps sur l’application, mais qu’en plus ils y soient actifs – plutôt que simplement consommer du contenu passivement. Une part substantielle de son modèle économique, et notamment la vente de la publicité affichée dans le flux des utilisateurs, est construit autour d’une optimisation prenant les MSI comme référence.

Ce que montrent ces documents est que Zuckerberg a sciemmentchoisi de ne pas implémenter au moins une mesure pour lutter contre la désinformation afin de protéger l’efficacité économique de l’algorithme de son flux. Les documents cités plus haut montrent que l’implication de Zuckerberg dans ces décisions est claire, ce qui est confirmé par d’anciens salariés de Facebook :

Zuckerberg, a dit un ancien dirigeant, “est extrêmement inquisiteur à propos de tout ce qui impacte la manière dont le contenu est classé dans le flux – parce que c’est la sauce secrète, c’est le moyen par lequel tout ce truc continue de tourner et de marcher et de générer des profits. […] Les gens ont senti que c’était le truc de Mark, alors il a besoin que ce truc soit un succès. Il faut que ce truc marche.”

Pour rappel, Zuckerberg possède 58% des actions à droit de vote de Facebook. Concrètement, il est tout puissant dans l’entreprise et n’a aucun contre-pouvoir. Même le conseil d’administration ne peut pas le démettre de ses fonctions. C’est l’une des raisons qui fait qu’il est autant exposé juridiquement.

Des discours de haine trop coûteux à modérer

L’un des plus gros problèmes sur Facebook est la diffusion et l’amplification des discours de haine. Alors que Facebook prétend réussir à les endiguer, Zuckerberg a manifestement menti devant le Congrès sur l’efficacité de la modération de ces discours sur la plateforme :

Lors d’une audition devant le Congrès l’année dernière, Zuckerberg a déclaré que l’entreprise supprime 94% des discours de haine qu’elle trouve avant qu’un humain ne les reportent. Mais dans des documents internes, des chercheurs estiment que l’entreprise supprimait moins de 5% des discours de haine sur Facebook.

Facebook a largement étudié les effets de ses algorithmes sur les discours de haine, y compris dans les pays non-anglophones comme l’Inde.

Des documents internes à l’entreprise rendus public samedi révèlent que Facebook a méticuleusement étudié son approche à l’étranger – et était tout à fait au courant qu’une modération plus faible dans des pays non-anglophones rend la plateforme vulnérable à des abus par des acteurs malveillants et des régimes autoritaires.
“La douloureuse réalité est que nous ne pouvons tout simplement pas couvrir le monde entier avec le même niveau de support” écrivait en 2019 Samidh Chakrabarti, à l’époque responsable de l’équipe dédiée à l’intégrité civique de l’entreprise, dans une publication sur l’outil de communication interne de Facebook. Il ajoute que l’entreprise a géré le problème en hiérarchisant les investissements par pays.

Malgré ces recherches aux résultats inquiétants, Facebook ne consacre que peu de moyens aux pays non-anglophones :

D’après un résumé de 2020, alors que les États-Unis comprennent moins de 10% des utilisateurs actifs quotidiens de Facebook, le budget de l’entreprise pour combattre la désinformation penchait fortement en faveur des États-Unis puisque 84% de ce budget leur était alloué. Seulement 16% étaient alloués pour le “Reste du monde”, un regroupement intercontinental qui inclus l’Inde, la France et l’Italie.

Ce qu’il se passe ici, d’après moi, est que Facebook joue un jeu politique avec les autorités américaines – qui sont probablement les plus susceptibles de la réguler. En allouant une proportion aussi considérable de moyens aux seuls États-Unis, Facebook espère sans doute convaincre les autorités américaines qu’il fait des efforts, et donc qu’il n’est pas nécessaire de le réguler plus strictement. Et tant pis pour les discours de haine à l’étranger.

L’ironie est que Facebook sait pourtant réduire la diffusion des discours de haine. Après un rapport de l’ONU reliant l’utilisation de Facebook au génocide des rohingyas en Birmanie, un scandale ayant durablement terni l’image de Facebook et réduit sa capacité à embaucher de jeunes diplômés, l’entreprise a massivement augmenté ses moyens dans le pays :

La région est devenue une priorité pour l’entreprise, qui a commencé à l’inonder de ressources en 2018, d’après des interviews avec deux anciens salariés de Facebook ayant connaissance du dossier et qui, comme d’autres, souhaitent rester anonymes pour décrire des sujets sensibles.
D’après de multiples documents, Facebook a pris plusieurs initiatives pour resserrer la sécurité et pour supprimer discours de haine viraux et désinformation dans la région. Une note, de 2019, a montré que Facebook a augmenté sa liste de termes péjoratifs dans la langue locale et a été capable d’identifier et réduire la visibilité de milliers d’insultes. Avant les élections birmanes de 2020, Facebook a lancé une intervention qui promouvait les publications des amis et de la famille des utilisateurs, ce qui, des salariés ont trouvé, a réduit la désinformation virale.
Un ancien salarié a dit qu’il était facile de travailler sur les programmes de l’entreprise en Birmanie, mais qu’il y avait moins d’incitations à travailler sur des problèmes dans des pays moins mis en avant, impliquant que nombre des interventions déployées en Birmanie ne l’étaient pas à d’autres endroits. “Pourquoi seulement la Birmanie ? C’était la vraie tragédie”, a dit cet ancien salarié.

On voit bien qu’il existe des solutions efficaces – pourvu que Facebook y mette les moyens. Et c’est, pour moi, exactement la raison pour laquelle Facebook traîne autant les pieds pour modérer sa plateforme : parce que ça coûte cher. En 2021, Facebook avait embauché directement ou indirectement 15.000 modérateurs dans le monde – un travail pénible et mal payé, qui génère souvent des traumatismes psychologiques graves compte tenu du type de contenu auxquels les modérateurs sont régulièrement exposés. Ce que montrent ces documents est que ce chiffre pourtant élevé est manifestement largement insuffisant. Pour rappel, en 2020, Facebook a généré un profit net de plus de 29 milliards de dollars. Il ne fait aucun doute que doubler, tripler, ou plus encore, le nombre de modérateurs viendrait mordre sur ces profits.

Pourquoi ces documents sont sans doute importants

Il y a de nombreuses autres révélations dans ces documents. L’entreprise a par exemple accédé aux demandes du (dictatorial) gouvernement vietnamien de censurer des opposants – alors même que Facebook et Zuckerberg se présentent comme des défenseurs de la “liberté d’expression” aux États-Unis et ailleurs. Pour rappel, le chiffre d’affaires de Facebook au Vietnam est d’un milliard de dollars. Facebook a également identifié que le contenu autour d’émotions négatives comme la rage ou la colère contient plus fréquemment de la désinformation et génère davantage d’engagement – ce qui n’a pas empêché la plateforme de mettre ce type de contenu en avant dans le flux pendant au moins trois ans. Facebook a également identifié que les utilisateurs les plus actifs politiquement ont davantage de chance d’être exposés à de la désinformation, surtout s’ils sont de droite.

Je m’attends à ce qu’il y ait d’autres révélations au cours des prochains jours et des prochaines semaines. Cette liste n’est vraisemblablement pas exhaustive.

Ces documents ne sont pas le premier scandale qui touche Facebook, loin s’en faut. Ça n’est pas un hasard si son PDG est régulièrement convoqué par le Congrès américain. Pour autant, je m’interroge si la révélation de ces documents ne constitue pas un point d’inflexion majeur.

Jusqu’ici, on suspectait un double discours de la part de Facebook. Zuckerberg avait beau déclarer que l’entreprise était soucieuse de modérer sa plateforme, de protéger la santé mentale de ses utilisateurs ou que les effets néfastes rapportés dans les médias étaient exagérés, et même s’il y avait des décalages entre certains constats et ses déclarations, il n’était pas possible de vérifier s’il disait la vérité ou s’il s’agissait de mensonges destinés à protéger Facebook. Ces documents montrent dans un certain nombre de cas, suggèrent dans d’autres, qu’il s’agissait bien de mensonges.

Ces documents montrent que contrairement aux déclarations de Zuckerberg, Facebook priorise l’engagement plutôt que la lutte contre la désinformation et les contenus nocifs. Ces documents montrent que contrairement aux déclarations de Zuckerberg, Facebook est au courant d’un grand nombre d’effets néfastes de ses décisions sur ses utilisateurs. Ces documents montrent que contrairement aux déclarations de Zuckerberg, Facebook travaille activement sur des outils pour lutter contre ces effets néfastes mais ne les déploie que lorsqu’ils n’entrent pas en contradiction avec son modèle économique.

Si vous trouvez que l’attitude de Facebook ressemble beaucoup à celle des producteurs du tabac qui, il y a quelques décennies, juraient la main sur le cœur ne pas savoir que la cigarette était dangereuse pour la santé alors que des quantités industrielles de recherches internes montraient le contraire, vous n’êtes pas le ou la seul·e.

La raison pour laquelle ces documents sont possiblement un point d’inflexion majeure est qu’ils peuvent donner matière au gouvernement américain d’engager des poursuites, et au Congrès de légiférer pour mieux réguler Big Tech. C’est plus facile de vendre une réforme avec des preuves qu’avec des suspicions, aussi vraisemblables soient elles.

Il va de soi que Facebook a répondu que ces documents étaient “sortis de leur contexte” et qu’ils ne disent pas ce qu’ils semblent dire. C’est une réponse tout à fait classique de la part d’une entreprise prise dans un nouveau scandale. Cette réponse a, de mon point de vue et connaissant à la fois l’historique de Facebook et la crédibilité des documents révélés, peu, voire aucune, valeur.

Pour finir, il me semble que ces révélations sont importantes pour les sceptiques car quelque soit les différences entre nos philosophies et nos approches du scepticisme, notre travail repose fondamentalement sur la lutte contre les fadaises et la désinformation. Or, ces documents montrent non seulement que Facebook est effectivement un gigantesque amplificateur à fadaises, mais qu’en plus de ça l’entreprise le sait, ne semble faire que le strict minimum pour les endiguer, et sait que ce strict minimum est globalement inefficace.

Nous nous retrouvons à devoir nettoyer des tsunamis permanents de fadaises en tout genre en partie parce que des entreprises ont des incitations très puissantes à les laisser se diffuser. Les fadaises ne datent bien sûr pas de Big Tech, mais Big Tech est sans doute un amplificateur sans précédent dans l’histoire de l’Humanité pour leur permettre de se diffuser. Et je crois que nous devrions davantage discuter de ces incitations au sein de la communauté. Ne serait-ce que pour mieux comprendre pourquoi le flux de fadaises est aussi intense.

Read more