Depuis l’élection, le réseau social est accusé d’avoir influencé l’issue du vote, en laissant proliférer de fausses informations et en ne proposant aux internautes que des contenus conformes à leurs opinions. La réalité est plus complexe.

Qu’est-ce qui a permis à Donald Trump de gagner l’élection présidentielle américaine ? Dans une interview diffusée par CBS dimanche 13 novembre, le « president-elect » américain donne une explication simple : le pouvoir des réseaux sociaux :

« J’ai une telle puissance, en ce qui concerne le nombre d’abonnés, sur Facebook, Twitter, Instagram, etc., que cela m’a permis de gagner tous ces scrutins où [les démocrates] ont pourtant dépensé beaucoup plus d’argent que moi. Et j’ai gagné. Les réseaux sociaux ont plus de pouvoir que tout l’argent qu’ils dépensent. »

En effet, Donald Trump compte bien plus d’abonnés, sur Facebook comme sur Twitter, que son ancienne rivale, Hillary Clinton. Mais le nombre d’abonnés seul ne fait pas l’élection. Pour M. Trump, les réseaux sociaux sont surtout « une manière de contre-attaquer », explique-t-il. Et il en a usé abondamment durant la campagne, diffusant sur ses comptes réactions survoltées, slogans, promesses, injures… A tel point que son équipe de campagne lui a retiré, dans les derniers jours de la campagne, l’accès direct à son propre compte Twitter, selon les informations de la presse américaine. Il a depuis repris la main, en s’attaquant au New York Times, dimanche.

Facebook pointé du doigt

Pour certains, ce sont aussi les réseaux sociaux en tant que tels, et singulièrement Facebook, qui ont facilité l’accession de Trump à la Maison Blanche. Ceci en laissant proliférer des « hoax », des articles diffusant de fausses informations, dans un but politique. Ces articles et messages militants ont réussi à atteindre une gigantesque audience sur Facebook, sur lequel s’informent plus de 40 % des Américains.

Des informations abracadabrantesques, comme le soutien (totalement inventé) du pape François à Donald Trump, ont été vues par des millions d’Américains : un article relatant cette fausse information a, par exemple, été partagé 868 000 fois, d’après les comptes duNieman Lab du 9 novembre.

Ironie du sort, ces « hoax » sont parfois écrits pour des raisons qui n’ont rien à voir avec la politique. Comme le révélait BuzzFeed, des adolescents en Macédoine, qui voulaient « faire de l’argent », ont misé sur la vague de soutien à Trump, et diffusé sur Facebook de nombreux articles grossièrement anti-Hillary Clinton, partagés et commentés par des centaines de milliers de personnes.

Les républicains disaient la même chose

La victoire de Donald Trump amplifie ces critiques contre Facebook. Le premier réseau social du monde se trouve pointé du doigt en tant que responsable du résultat de l’élection, comme on peut le lire sur les sites de MashableForbes ou encore Vox, qui appellent à un remaniement profond de son fonctionnement.

Pour éteindre l’incendie, le patron du réseau social, Mark Zuckerberg, a dû prendre la parole. Facebook avait jusque-là surtout axé sa communication sur le fait d’avoir pu amener aux urnes deux millions de votants, grâce à une large campagne d’inscription dans les bureaux de vote menée sur son réseau. Aussi a-t-il réagi dès le 10 novembre :

« Il faut avoir un profond manque d’empathie pour affirmer que la seule raison qui fait qu’une personne ait pu voter comme elle l’a fait est qu’elle a vu une fausse information. »

Puis, dans un message posté directement sur Facebook le 12 novembre, il a affirmé, citant des études internes sur le sujet, que « sur l’ensemble de Facebook, plus de 99 % de ce que voient les utilisateurs est authentique. Seule une très faible partie du contenu publié est composée de fausses informations et de hoax ».

Pour autant, le fondateur de Facebook reconnaît, en creux, qu’il y a bien un problème. Il s’engage, dans le même message, à continuer de rechercher comment lutter contre la diffusion de fausses informations. Même si, pour reprendre une expression popularisée par Facebook, « it’s complicated ». « Identifier la vérité est complexe », écrit M. Zuckerberg :

« On peut prouver que certains hoax sont faux. Mais beaucoup de messages, y compris issus de médias grand public, omettent ou se trompent sur des détails. Et un nombre encore plus important d’articles exprime des opinions avec lesquelles beaucoup de personnes seront en désaccord et qu’elles épingleront comme fausses, alors que l’article est factuel. »

La direction de Facebook en sait quelque chose. Il y a quelques mois à peine, ce sont les républicains qui la clouaient au pilori, l’accusant de parti pris dans sa sélection des articles les plus populaires du moment sur le réseau social – une fonctionnalité qui n’est disponible qu’aux Etats-Unis.

« Je ne connais personne qui ait voté pour lui »

Autre motif d’insatisfaction des déçus de la victoire de Trump : « l’effet de bulle » que provoque Facebook. Les publications du flux d’actualité (« Newsfeed »), la première chose que les utilisateurs de Facebook voient en se connectant, sont en effet choisies par un algorithme, au fonctionnement complexe et connu de Facebook seul. Celui-ci privilégie ce qui pourra intéresser l’utilisateur en fonction de ses précédentes activités sur Facebook (publications qu’il a aimées, commentées, celles de ses amis, etc.).

Conséquence directe sur le champ politique : un sympathisant républicain verra prioritairement des informations de sources conservatrices, et inversement pour un sympathisant démocrate. Ce qui conduirait à polariser le débat et à enfermer les citoyens dans des « bulles partisanes », dans lesquelles ils ne sont jamais confrontés à des opinions différentes de la leur.

Des « bulles » parfaitement représentées par un projet du Wall Street Journal, montrant la différence entre ce que verraient les sympathisants républicains et les sympathisants démocrates. Le constat est indéniable : les supporters démocrates qui n’envisageaient pas un instant une victoire de Donald Trump n’ont rien vu venir dans leur fil Facebook.

Aux Etats-Unis, les critiques de nombreux utilisateurs s’interrogeant après l’élection sur la victoire de Donald Trump alors que l’ensemble de leurs amis Facebook votaient Clinton font écho à une autre élection, bien antérieure à la création du réseau social : celle de Richard Nixon (1969). Une citation – approximative – de la critique new-yorkaise Pauline Kael était passée à la postérité :

« Je n’arrive pas à croire que Nixon ait gagné. Je ne connais personne qui ait voté pour lui. »

Miroirs du quotidien

Pour Facebook, les conséquences de la « bulle » sont minimes et, d’ailleurs, l’effet de bulle n’est pas lié au fonctionnement de Facebook, mais à la simple psychologie humaine : les utilisateurs de Facebook préfèrent lire des articles et « liker » des statuts avec lesquels ils sont d’accord. La recherche indépendante tend à considérer que l’effet de bulle, s’il est bien réel, est souvent moins fort – et moins nouveau – que ce que l’on pourrait croire. « La bulle, c’est nous qui la créons, estime le sociologue Dominique Cardon, par un mécanisme typique de reproduction sociale. Le vrai filtre, c’est le choix de nos amis, plus que l’algorithme de Facebook. »

Miroirs du quotidien, les réseaux sociaux sont avant tout un reflet, parfois déformé ou complexe à comprendre, de la réalité. Croire que les électeurs de Trump ont voté pour lui parce qu’ils ont été trompés, qu’on leur a « mal expliqué », ou qu’ils étaient trop stupides pour distinguer le vrai du faux sur Facebook, ne serait-ce pas prendre le point de vue arrogant d’un « establishment » qu’une bonne partie des Etats-Unis a sanctionné ?

La facilité avec laquelle se sont diffusés des « hoax » pose effectivement question quant aux transformations numériques du débat politique. Mais il n’est pas interdit de s’interroger sur les raisons pour lesquelles des millions d’Américains ont eu envie d’y croire et ont élu Donald Trump. Si les « hoax » et « posts » militants en faveur du candidat républicain n’intéressaient personne, l’algorithme de Facebook leur aurait vraisemblablement donné moins d’importance : Facebook est-il responsable si ses utilisateurs partagent, en toute conscience, des mensonges destinés à discréditer les candidats qu’ils n’aiment pas, et qui confortent leur propre vision du monde ?

« Arbitre de la vérité »

Un débat fondamental, au point qu’il a lieu depuis quelques jours au sein même des équipes de l’entreprise, selon le New York Times. « Les informations ne sont pas la mission première des employés de Facebook », a répondu Mark Zuckerberg le 12 novembre, réaffirmant ce qu’il avait déjà dit dans le passé :

« Facebook n’est pas un média, c’est une plateforme. »

La formule tend à négliger le rôle, aujourd’hui déterminant, de Facebook dans la distribution de l’information, et son pouvoir économique sur les médias occidentaux. Elle permet de s’affranchir à bon compte de toute responsabilité, face aux représentations « hyperpartisanes » de l’actualité, qui prospèrent sur son réseau.

Mais demander que Facebook investisse davantage le champ politique, ou avance sur la voie du média unique qui jouerait un rôle actif dans la définition du « vrai », du « faux » et de la neutralité de l’information, n’est pas anodin. Combattre à la racine les « hoax » circulant sur Facebook demanderait, par exemple, que des équipes de modération chez Facebook exercent un contrôle éthique permanent, et a priori, sur ce qui est vrai ou faux, selon des critères qui leur seraient propres et restant à définir. Il faudrait ainsi étendre la modération active que Facebook tente d’appliquer aux contenus terroristes (avec plus ou moins de succès) à tous les contenus partagés sur ce réseau social.

Ce travail est, habituellement, du ressort d’institutions telles que la justice, la science ou la presse. Et cette mission reviendrait à donner à Facebook une responsabilité bien plus grande que celle qu’elle n’a aujourd’hui dans la diffusion des savoirs et du débat d’idées. Mark Zuckerberg en est conscient, déclarant dans son dernier post Facebook :

« Nous devons être extrêmement prudents avec l’idée que nous puissions devenir nous-mêmes des arbitres de la vérité. »

Michaël Szadkowski & Damien Leloup

Lire sur Le Monde.fr