L’image de Facebook a été affectée par la propagation des « fake news », ces fausses nouvelles virales popularisées lors de l’élection présidentielle américaine de 2016. Au point qu’on s’interroge : le réseau social aux 2,07 milliards d’utilisateurs est-il devenu un danger pour la démocratie ? Mark Zuckerberg, PDG et cofondateur, s’est donné pour mission de « réparer » Facebook en 2018. Un chantier semé d’embûches.
Miné par la polémique des fake news, Facebook veut se refaire une réputation. Pour 2018, le PDG et cofondateur Mark Zuckerberg s’est donné pour mission de « réparer » le réseau social aux 2,07 milliards d’utilisateurs. « Le monde se sent anxieux et divisé, et Facebook a beaucoup de travail à faire – qu’il s’agisse de protéger notre communauté contre les abus et la haine, de se défendre contre les interférences des États ou de s’assurer que le temps passé sur Facebook soit bien utilisé », constatait début janvier Mark Zuckerberg sur sa propre page du réseau social. « Nous n’allons pas empêcher tous les abus, mais nous faisons actuellement trop d’erreurs pour appliquer nos politiques et empêcher l’utilisation abusive de nos outils. Si nous réussissons cette année, nous finirons 2018 sur une bien meilleure trajectoire. » Comme un air de mea culpa…
En effet, le géant américain a été vivement critiqué l’année dernière pour son manque d’efficacité dans sa lutte contre les fake news, ces fausses nouvelles virales popularisées lors du Brexit en 2016 et amplifiées lors de l’élection présidentielle américaine. Preuve en est que Facebook, conçu en 2004 comme un simple trombinoscope pour l’université de Harvard, a largement dépassé son simple statut de réseau social. Il est même devenu une source d’informations concurrente des médias traditionnels (voir chronologie). Une responsabilité qu’il n’avait pas envisagée lors de sa création.
“Industrialisation des rumeurs”
« Les rumeurs sur Internet ont toujours existé, mais il y a deux nouveautés concernant les fake news. D’une part, on observe un niveau de seuil. Il y a une industrialisation des rumeurs à cause du modèle économique de Facebook. Celui-ci repose sur une économie du clic permettant à des annonceurs publicitaires de rediriger l’utilisateur vers des sites externes proposant des fake news », détaille Romain Badouard, maître de conférences en sciences de l’information et de la communication à l’université de Cergy-Pontoise, auteur du livre Désenchantement de l’Internet. Désinformation, rumeur, propagande (éd. FYP).
C’est pourquoi Facebook a notamment décidé, depuis août dernier, de frapper au porte-monnaie, en les privant de publicité, les pages diffusant des fake news – labellisées comme telles par le réseau social. « D’autre part, il y a désormais une dimension politique des rumeurs avec l’utilisation de fake news à des fins de propagande politique », poursuit le chercheur.
C’est notamment ce qui s’est passé lors de l’élection présidentielle américaine, où une interférence russe a été dénoncée par les élus américains. La Russie est soupçonnée d’avoir mené une campagne de propagande à travers le financement de publicités sur les réseaux sociaux – ce qui a conduit Facebook, Twitter et Google à se justifier devant le Congrès américain début novembre dernier. Lors de cette audition, Facebook a déclaré avoir identifié 3 000 publicités vues par 10 millions d’internautes américains. Et ce n’est pas tout : 80 000 publications – non payantes et soupçonnées d’être liées aux intérêts russes – ont été vues par 126 millions d’Américains entre 2015 et 2017.
Fact-checking contre fake news
Aux États-Unis, Facebook est le premier réseau social pour la consommation d’informations, selon une étude Pew Research sur les usages des plateformes en ligne en 2017. Environ 66 % des Américains utilisent Facebook – parmi lesquels 45 % s’en servent pour s’informer, contre seulement 11 % pour Twitter et 5 % pour Snapchat.
« Facebook est un nouveau genre de plateforme. Ce n’est pas une entreprise technologique traditionnelle. Ce n’est pas un média traditionnel », bottait en touche Mark Zuckerberg, fin 2016, lors de sa dernière déclaration en date à ce sujet.
Dans cette zone grise, Facebook a multiplié les initiatives pour tenter d’éradiquer les fake news, en misant principalement sur la sensibilisation des utilisateurs. Son principal outil : le fact-checking. Après avoir fait un test aux États-Unis en décembre 2016, le réseau social a lancé ce programme en février dernier avec huit médias français – dont Le Monde, Libération, France Télévisions ou encore l’AFP. Si un utilisateur signale une information erronée et confirmée comme telle par deux médias partenaires après vérifications, la publication affiche alors un pictogramme mentionnant que l’information est fausse. L’objectif : réduire sa circulation sur la plateforme. Mais Facebook a jugé lui-même l’outil peu dissuasif fin décembre, avant de procéder à son retrait.
« La recherche académique sur la correction de la désinformation a montré que mettre une image forte comme un drapeau rouge à côté d’un article peut en fait renforcer des croyances déjà ancrées – l’effet inverse de ce que nous voulions », s’est justifié Facebook dans une note de blog.
À la place, le réseau social utilise les « related articles » (en français, des articles apparentés) qui s’affichent lorsque des thèmes spécifiques prennent de l’ampleur sur Facebook. Ils sont alors intégrés dans une petite fenêtre au-dessous du lien de l’article original. Cette mesure ne supprime pas l’article litigieux, elle vise seulement à limiter sa propagation.
Censure ou liberté d’expression ?
Le géant californien s’est ainsi retrouvé au coeur d’un débat sensible : faut-il laisser une entreprise privée supprimer des contenus, et donc établir une forme de censure ? Supprimer des publications s’apparenterait à une restriction de la liberté d’expression. Mais miser sur l’autorégulation fait prendre le risque à Facebook de paraître laxiste en permettant la prolifération des discours haineux et de la désinformation. À cet égard, les États divergent quant aux mesures à adopter.
L’Allemagne a été le premier pays à dégainer une loi pour inciter les réseaux sociaux à réguler eux-mêmes le contenu circulant sur leurs plateformes. Entrée en vigueur le 1er janvier 2018, elle ne concerne pas toutes les fake news, mais uniquement les discours haineux sur Internet (propagande terroriste, insultes, appels à la violence…), y compris, donc, les fake news de ce type. La loi allemande oblige les réseaux sociaux à supprimer sous 24 heures les contenus litigieux – au risque d’encourir une amende pouvant grimper jusqu’à 50 millions d’euros.
« Facebook ne communique pas lorsqu’il supprime des comptes. Ainsi, s’il supprime une page relayant un discours de haine, il est légitime », affirme le maître de conférences Romain Badouard. « En revanche, comme il n’y a pas de transparence à ce sujet, l’utilisateur ne peut pas savoir pourquoi il y a eu une censure. À terme, les citoyens y ont plus à perdre qu’à gagner ».
Face au choix allemand, d’autres préconisent davantage de transparence – comme les États-Unis, mais aussi la France.
Début janvier, Emmanuel Macron a ainsi dit vouloir « imposer des obligations de transparence accrue sur tous les contenus sponsorisés, afin de rendre publique l’identité des annonceurs et de ceux qui les contrôlent, mais aussi de limiter les montants consacrés à ces contenus ». Mais en cas de fake news virale, « il sera possible de saisir le juge à travers une nouvelle action en référé permettant, le cas échéant, de supprimer le contenu mis en cause, de déréférencer le site, de fermer le compte utilisateur concerné, voire de bloquer l’accès au site Internet », a précisé le président de la République.
Lire aussi : “Fake news” et liberté d’expression : la future loi de Macron inquiète
Enfermement algorithmique
Au-delà d’une simple modération, les algorithmes de Facebook ont également été sous le feu des critiques pour la création de « bulles idéologiques ». Ce phénomène de filtre permet de voir les informations partagées par ses contacts identifiés comme semblables. L’utilisateur se retrouve ainsi « enfermé » dans un cercle sans débat idéologique.
Pour Margrethe Vestager, commissaire européenne à la Concurrence, l’enfermement algorithmique « défie les principes de base de la vie démocratique » :
« Un réseau social comme Facebook obtient plus de 50 millions de mises à jour de statuts par jour. Il est logique de se tourner vers des algorithmes pour nous aider à passer au crible cette information, concédait-elle lors d’un discours à Bruxelles. Le problème est qu’il est très difficile de savoir comment un algorithme a pris sa décision (…) Donc, s’il est juste conçu pour nous montrer des choses qui nous intéressent déjà, cela peut limiter davantage nos horizons sans même que nous le remarquions. Cela peut empêcher de voir de nouvelles idées ou de regarder les anciennes de différentes façons. Nos préjugés peuvent s’accumuler jusqu’à ce qu’ils semblent être, non seulement des opinions, mais une partie naturelle du fonctionnement du monde ».
Et de conclure :
« Nous ne pouvons pas avoir un débat démocratique si nous entendons seulement des points de vue choisis ».
L’affaire Snowden, un point de rupture
Lors des Printemps arabes, en 2010, Facebook avait pourtant été perçu comme un outil d’émancipation et d’activisme numérique permettant à n’importe quel citoyen de prendre la parole pour participer au débat public.
« Il y a un très net basculement de l’opinion concernant le potentiel démocratique de Facebook », observe Romain Badouard. Le point de rupture : « L’affaire Snowden, en 2013. On s’est rendu compte que le web pouvait aussi être utilisé pour surveiller les populations. » Ce changement de perception s’est achevé avec « les attentats de 2015 et la prolifération des discours de haine et de propagande djihadiste », poursuit-il.
Facebook, qui se revendiquait comme un fervent défenseur de la liberté d’expression, consent depuis à une modération accrue de ses contenus. En mai dernier, Mark Zuckerberg a annoncé le recrutement de 3 000 modérateurs – s’ajoutant à une équipe déjà constituée de 4 500 personnes. Actuellement, environ 10.000 salariés travaillent déjà à la sécurité du réseau, comprenant notamment la modération des « fake news, discours haineux, harcèlement », précisait Mark Zuckerberg début novembre. L’effectif devrait être doublé au cours de 2018.
En parallèle, le réseau social investit également dans l’intelligence artificielle pour détecter « les mauvais contenus et les mauvais profils », affirmait le Pdg. Facebook semble aussi vouloir renouer avec son coeur de métier : redevenir « un vrai » réseau social (lire pages 6 et 7). Mark Zuckerberg a annoncé, jeudi 11 janvier, une nouvelle version du fil d’actualité, créé en 2006. L’objectif ? Favoriser les interactions entre les utilisateurs et reléguer en bas du fil des « contenus publics comme des publications d’entreprises, de marques et de médias ».
___
ENCADRÉ
D’inventions en polémiques, les étapes d’une transformation
4 février 2004 – Création de Facebook, conçu comme un trombinoscope universitaire pour les étudiants de Harvard. Le cofondateur et PDG, Mark Zuckerberg, alors âgé de 20 ans, baptise le projet « The Facebook ». La promesse de l’époque : « Cherchez les gens de votre école, regardez qui est dans votre classe, trouvez des amis d’amis.
2005 – C’est l’apparition du mythique « poke », première interaction sur le réseau social. C’est alors un message qui permet d’obtenir l’attention de l’interlocuteur visé. En anglais, « poke » signifie « coucou » ou… « coucher ». Une ambiguïté qui n’a jamais été levée. Cette année-là, la plateforme est renommée Facebook.
2008 – Facebook vise l’international. L’anglais ne suffit plus à l’entreprise, qui s’ouvre aux Français, aux Espagnols et aux Allemands. Résultat : le nombre d’utilisateurs triple quasiment en une année, pour s’établir à 145 millions de fidèles.
2009 – Après le « poke », Facebook devient précurseur en créant le « like », ce petit pouce bleu qui est censé marquer l’approbation et qui sera par la suite récupéré par d’autres réseaux sociaux.
2011 – Premier scandale de modération : Facebook censure une reproduction de L’Origine du monde, de Gustave Courbet, qui représente un sexe féminin. Cinq ans plus tard, l’entreprise supprime une publication de la photo de la « fillette brûlée au napalm ».
2012 – Le premier milliard ! Facebook atteint son premier milliard d’utilisateurs, en moins de dix ans d’activité. Avec une baisse des publications de statuts, l’entreprise se renouvelle en mettant l’accent sur la photo. 2012 marque aussi l’entrée en Bourse du géant de la Silicon Valley.
2016 – Fake news, propagation de contenus terroristes, suicides diffusés en direct… Facebook accumule les polémiques. Mais crée aussi, pendant les attentats en France, le bouton « Safety Check » qui permet d’avertir ses proches. Une question reste en suspens : l’entreprise de Mark Zuckerberg a-t-elle dépassé le rôle de réseau social pour devenir un média ?
2017 – Et de deux. Le réseau social dépasse la barre des 2 milliards d’utilisateurs sur une population mondiale de 7,6 milliards de personnes. À titre de comparaison, Twitter en revendique seulement 330 millions.