Les premières décisions du Conseil de surveillance de Facebook

Facebook n’en finit pas de renouveler le débat sur la liberté d’expression en ligne. Alors que la question de la responsabilité de la plateforme agite l’opinion depuis les évènements du Capitole, le Conseil de surveillance de Facebook a publié ses premières décisions le 28 janvier 2021. L’ambition de ce nouveau mécanisme est de garantir la liberté d’expression des utilisateurs de Facebook et Instagram face aux censures opérées par les équipes de modération.

L’annonce de la création du Conseil avait suscité une vague de scepticisme chez les observateurs de la Big Tech, ceux-ci soupçonnant Facebook de phagocyter le règlement de différends l’opposant à ses utilisateurs, au détriment des juridictions. Les débuts du Conseil ne permettent pas d’apaiser cette crainte, néanmoins la consultation des premières décisions révèle quelques surprises.

CC-BY http://www.thoughtcatalog.com/

Qu’est-ce que le Conseil de surveillance ?

Le Conseil de surveillance (Oversight Board) a été conçu comme une réponse aux critiques visant Facebook en matière de modération des contenus. Le scandale Cambridge Analytica, notamment, a révélé l’instrumentalisation de la plateforme à des fins de désinformation, d’influence ou d’ingérence. Soucieux de restaurer la confiance de l’opinion publique grâce à une modération plus robuste, tout en protégeant la liberté d’expression des utilisateurs, Mark Zuckerberg a annoncé la création d’un mécanisme indépendant, chargé de modérer les modérateurs.

Selon ses statuts, le Conseil de surveillance a pour mission de : « protéger la liberté d’expression en prenant des décisions indépendantes et fondées sur des principes concernant des éléments de contenu importants, et en émettant des avis consultatifs sur les politiques en matière de contenu de Facebook ». Les utilisateurs estimant que leurs publications ont été censurées à tort et n’ayant pas obtenu gain de cause auprès du réseau social, peuvent « faire appel » de la décision de ce dernier auprès du Conseil. Si leur requête est éligible, elle pourra faire l’objet d’un examen par un panel de cinq membres. Celui-ci sera alors habilité à adopter des décisions contraignantes, annulant les mesures prises par Facebook (la société a l’obligation de s’y conformer dans un délai de sept jours), ainsi que des déclarations consultatives destinées par exemple à recommander la modification des Standards de la communauté.

Pour accomplir ces missions, le Conseil de surveillance est composé de vingt membres (à terme, ils seront quarante) aux profils variés : juristes, journalistes, militants associatifs et personnalités politiques, dont l’ancienne Première ministre du Danemark, Helle Thorning-Schmidt. Son mandat et ses procédures sont définis par une variété d’instruments : une Charte décrivant sa structure et ses pouvoirs, des Statuts fixant ses procédures, un Code de conduite énonçant les obligations de ses membres et un Règlement intérieur. Ces documents n’autorisent le Conseil à appliquer que les seuls Standards de la communauté et « Valeurs » de la plateforme (Authenticité, Confidentialité, Liberté d’expression, Sécurité, etc.), à l’exclusion des droits nationaux.

Les problématiques abordées par les premières décisions

Le Conseil n’a pas fait preuve de ménagement à l’égard de son créateur. En effet, sur les cinq premières décisions rendues, quatre ont conclu à l’annulation de mesures de suppressions de contenus décidées par Facebook. Les modérateurs avaient dans ces différents dossiers censuré des publications citant Joseph Goebbels à des fins de comparaison avec Donald Trump ; promouvant le recours à l’hydroxychloroquine pour soigner la Covid-19 ; sensibilisant au dépistage du cancer du sein grâce à une campagne photographique ; ou stigmatisant une communauté, musulmane dans un cas, azerbaïdjanaise dans l’autre (cette dernière affaire est la seule dans laquelle le Conseil a confirmé la décision de suppression de Facebook, estimant que les propos censurés pouvaient alimenter le conflit au Haut-Karabagh). Différents standards, relatifs à la liberté d’expression, aux discours de haine, à la désinformation, la violence, la provocation, la nudité ou la sécurité, étaient au cœur des raisonnements suivis.

Si les thématiques abordées relèvent d’une actualité brûlante, le nombre modeste de dossiers traités par le Conseil laisse perplexe. Seule une poignée de cas sur 150.000 requêtes a été retenue. Le Conseil s’en défend dans son communiqué de presse, soulignant leur caractère épineux : « Aucun de ces dossiers n’appelle de réponse évidente et les délibérations ont révélé l’immense complexité des questions en jeu ». Ce faisant, il confirme son obligation statutaire de ne traiter que des cas significatifs ou complexes, à savoir les « cas les plus susceptibles d’orienter les décisions et les politiques futures » du Conseil et de Facebook (art. 2.1.1 des Statuts, art. 2.1 de la Charte). Le Conseil n’entend ainsi se consacrer qu’à des affaires susceptibles de constituer des précédents. De quoi susciter la frustration de dizaines de milliers de requérants.

Un mécanisme de réclamation non judiciaire ?

De façon plus inattendue, le Conseil de surveillance consacre une partie de ses conclusions à l’identification et à l’application de normes ou standards internationaux, intégrant des instruments de protection des droits de l’homme (Pacte international relatif aux droits civils et politiques, Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme), la pratique du Comité des droits de l’homme des Nations Unies ou les travaux du Rapporteur spécial des Nations Unies sur la promotion et la protection de liberté d’opinion et d’expression. Les panels s’inspirent même, dans chaque affaire, des tests développés par les organes de protection des droits de l’homme pour déterminer l’adéquation des restrictions à la liberté d’expression. Des critères de légalité, de but légitime, de nécessité et de proportionnalité sont ainsi analysés. Le Conseil justifie cette approche dans l’affaire relative à l’hydroxychloroquine en affirmant son statut de mécanisme de réclamation non judiciaire :

« En vertu des Principes directeurs des Nations Unies (PDNU), les entreprises devraient « respecter les droits de l’homme. Cela signifie qu’elles devraient éviter de porter atteinte aux droits de l’homme d’autrui et remédier aux incidences négatives sur les droits de l’homme dans lesquelles elles ont une part » (…) De plus, les PDNU précisent que les mécanismes de réclamation non judiciaires (tels que le Conseil de surveillance) doivent produire des résultats conformes aux droits de l’homme internationalement reconnus (…). En expliquant les raisons qui l’ont poussé à supprimer le contenu, Facebook a reconnu l’applicabilité des PDNU et du PIDCP à sa décision de modération du contenu ».

L’articulation de ces instruments avec les standards de Facebook laisse entrevoir la volonté du Conseil de soumettre la société aux droits de l’homme. Cette ambition apparaît d’autant plus singulière que ces instruments sont ici exploités pour souligner l’inintelligibilité des standards de Facebook et critiquer sa stratégie de modération.

Des standards à étoffer

Le Conseil déplore à plusieurs reprises l’opacité des Standards de la communauté et l’absence de définitions de concepts centraux tels le discours de haine, le danger « imminent » ou la sécurité. Ces lacunes contribuent, selon les panels, à l’impossibilité pour les utilisateurs de comprendre les règles gouvernant le fonctionnement du réseau social. Les conclusions du Conseil lèvent également le voile sur le manque de transparence de Facebook. Ainsi, la non-publication de la liste des « Individus et organismes dangereux » dont l’apologie est interdite est regrettée, alors que son existence est confirmée par Facebook dans le dossier relatif à la citation de Goebbels.

Le Conseil de surveillance va jusqu’à déceler des contradictions, certaines clarifications apportées par Facebook dans son Centre d’actualités en ligne n’ayant jamais été intégrées aux Standards de la communauté. Dans le dossier sur l’hydroxychloroquine, le panel constate par exemple qu’ :

« Il est difficile pour les utilisateurs de comprendre quels contenus sont interdits. Les modifications des politiques relatives à la COVID-19 de Facebook annoncées dans la Newsroom de la société n’ont toujours pas été prises en compte dans ses Standards de la communauté, alors que certaines de ces modifications semblent même entrer en contradiction avec ces Standards ».

Un « patchwork » de standards inintelligibles ou « de politiques disséminées dans les différentes parties du site web » est ainsi dénoncé. Par conséquent, le Conseil recommande, dans les cinq décisions, la refonte des Standards de la communauté.

Enfin, l’inadéquation des techniques de modération employées par Facebook est remise en cause par le Conseil dans chacune des décisions. Sont ainsi visés le recours quasi-systématique à la suppression de contenus (plutôt que leur simple rétrogradation dans les flux d’actualité), le défaut de motivation des décisions, l’incapacité des modérateurs à appréhender le contexte des propos censurés ou l’automatisation préjudiciable de certaines techniques de modération. Le Conseil constate par exemple que les algorithmes de la plateforme ont supprimé les photos d’une campagne de sensibilisation au dépistage du cancer du sein, avant que les modérateurs humains n’interviennent (trop tard) pour rectifier l’erreur : un procédé automatisé de modération opérant « sans supervision humaine adéquate porte atteinte à la liberté d’expression », en conclut le panel. L’amélioration des algorithmes d’apprentissage automatique chargés de contrôler les images publiées est donc préconisée. Bien que ces recommandations n’emportent pas d’obligation de mise en œuvre pour Facebook, ces lacunes ne sauraient être ignorées, ni par l’entreprise, ni par la société civile.

Affaires à suivre

Ces cinq décisions contiennent d’autres éléments atypiques qui mériteraient d’être décryptés, tant sur le fond que sur la forme, pour apprécier la (quête de) légitimité du mécanisme. L’emploi de termes tirés du vocabulaire judiciaire (éligibilité, champ d’application, légalité, etc.), par exemple, trahit l’ambition du Conseil d’être assimilé à un organe juridictionnel. Il n’en est rien et il faut par ailleurs se rappeler que le mécanisme a été créé par une entreprise privée. Cela ne l’empêchera toutefois pas de poursuivre son activité au gré des requêtes. Le Conseil a d’ores et déjà annoncé la publication prochaine d’une nouvelle série de décisions, incluant ses conclusions sur le bannissement de l’ancien président Donald Trump de la plateforme à la suite des évènements du Capitole. Le réseau social a entrepris de saisir le Conseil des questions suivantes :

« Étant donné les valeurs de Facebook, en particulier son engagement à une offrir « Voix » et « Sécurité », l’entreprise a-t-elle pris la bonne décision, le 7 janvier 2021, en choisissant d’empêcher Donald J. Trump de publier du contenu sur Facebook et Instagram pour une période indéterminée ? Facebook a également demandé au Conseil de formuler des observations ou recommandations sur les suspensions lorsque l’utilisateur est un responsable politique ».

La décision du Conseil sera attendue de pied ferme tant par l’opinion publique que par les autorités du monde entier. En effet, ses conclusions risquent d’orienter les politiques de modération du réseau social à l’égard des contenus publiés par les gouvernants présents sur la plateforme. Quelle que soit la position retenue, sa légitimité sera contestée. Après tout, le Conseil n’est pas une juridiction, et encore moins une cour suprême, comme s’évertue à le rappeler le « Real Oversight Board », un groupe d’experts déterminé à évaluer de façon indépendante les activités de Facebook.

Valère Ndior, professeur de droit public à l’UBO

Valère Ndior

Professeur de droit public à l'Université de Bretagne occidentale, membre du Lab-LEX (UR7480).

You may also like...