“Mieux réguler les réseaux sociaux” après l’assassinat de Samuel Paty ?

Après l’atroce assassinat de notre collègue Samuel Paty, le temps des hommages a rapidement cédé la place aux contre-offensives politiques. Pour le porte-parole du Gouvernement, les responsables étaient tout trouvés : “les choses ont démarré sur les réseaux sociaux avec des vidéos notamment de ce parent d’élève et se sont terminées sur les réseaux sociaux avec cette photo abjecte qui a été postée par le terroriste“. Il ajoutait que “oui, ils ont une responsabilité, oui, on doit arriver à mieux les encadrer“.

La majorité parlementaire avait cherché à réformer la question cette année. Le fait que ce texte ait été censuré en quasi-totalité par le Conseil constitutionnel n’a pas poussé le Premier ministre à l’humilité, comme on aurait pu s’y attendre. Cette tentative avortée, tout à coup relatée comme un fait d’armes, a été abondamment applaudie dans l’Hémicycle, sous le regard gourmand de son architecte Laetitia Avia. Monsieur Castex a annoncé que le texte reviendrait prochainement “sous une autre forme”.

Assistant à la scène, un observateur non averti en retiendrait probablement : que le Conseil constitutionnel a fait obstacle à la première loi pour des motifs si futiles qu’ils méritent à peine l’attention ; que le Gouvernement sait parfaitement comment réguler les réseaux sociaux et qu’il s’apprête à le démontrer ; que ce faisant, il préviendra efficacement de futures attaques terroristes.

Malheureusement, aucune de ces affirmations ne nous paraît exacte.

Avant d’en revenir au massacre de Samuel Paty, il est nécessaire de rappeler brièvement quelles règles actuellement en vigueur s’imposent sur les réseaux sociaux.

Quels contenus les réseaux sociaux doivent-ils actuellement retirer ?

Les règles qui régissent les communications électroniques en général, et les obligations de retrait pesant sur les réseaux sociaux en particulier sont largement présentées sur ce site. Nous nous contenterons donc de les résumer à très grands traits. Le modèle de communication préexistant à Internet était pyramidal : un petit nombre de producteurs d’information s’adressait à une multitude de lecteurs, d’auditeurs, de téléspectateurs. Pour chaque livre publié, chaque journal passé sous la presse, chaque émission lancée sur les ondes, il était possible d’identifier une ou plusieurs personnes ayant intégralement pris connaissance du contenu avant sa diffusion, et pouvant répondre civilement et pénalement d’une éventuelle illicéité du contenu.

Un tel modèle n’est à l’évidence pas transposable aux réseaux sociaux, qui charrient des millions de message, “likes” ou partages par minute. Mark Zuckerberg n’est pas le rédacteur en chef ni le directeur de publication de Facebook. Ni lui ni même l’ensemble de ses équipes n’ont la possibilité d’avoir une connaissance personnelle et a priori de chacune des publications transitant par leur outil. Il existait une autre qualification juridique disponible : celle d’intermédiaire technique, qui vise au départ des acteurs tels que les hébergeurs de site internet. Mais un réseau social n’est pas tout à fait cela non plus. Il est plus qu’un tuyau idiot par lequel transiteraient les contenus. Il les agence, les articule, augmente ou diminue leur visibilité, propose de les propager, de les enrichir, d’y répondre… par des moyens automatisés. Mais en attendant qu’ait été conçue une fort délicate “troisième voie” entre le régime des éditeurs et celui des simples intermédiaires techniques, c’est ce dernier qui s’applique aux réseaux sociaux.

Quelles sont les obligations de ce statut en matière de retraits de contenus illicites ? On peut les résumer en trois points :

  • le réseau social n’a l’obligation d’agir que s’il a une connaissance personnelle du contenu (ce qui est rare) ou si le contenu lui a été signalé ;
  • il vérifie alors si le contenu est “manifestement illicite” ;
  • en cas de réponse positive, il doit “promptement” en assurer le retrait.

Il est important de noter que la loi de 2004, qui a posé cette solution, visait à l’origine les contenus “illicites”. C’est une décision du Conseil constitutionnel vieille de plus de quinze ans qui a posé cette solution, absolument fondamentale :

(…) ces dispositions ne sauraient avoir pour effet d’engager la responsabilité d’un hébergeur qui n’a pas retiré une information dénoncée comme illicite par un tiers si celle-ci ne présente pas manifestement un tel caractère ou si son retrait n’a pas été ordonné par un juge (…)

Soit il est absolument flagrant que le contenu est contraire au droit français, et la plateforme doit réagir. Soit l’illicéité est sujette à caution, elle se discute, et la plateforme doit laisser le contenu en place en attente de l’éventuel ordre d’un juge. Un doute même léger profite en principe au contenu. Pourquoi ? Car le Conseil constitutionnel refuse que l’on délègue à Twitter, Instagram ou Tiktok le pouvoir de décider de ce que l’on a le droit de dire, d’écrire ou de montrer dans le débat public français. Cette prérogative, dans une société démocratique, ne peut appartenir qu’aux magistrats.

Ces préalables étant rappelés, revenons-en à la terrible affaire Samuel Paty.

Les premières vidéos critiquant l’enseignant

Je n’ai pas eu connaissance personnellement de ces médias, aussi proposerai-je une analyse au regard des caractéristiques relatées par le journaliste Marc Rees :

Dans la fameuse vidéo, un parent du Collège du Bois d’Aulne expliquait que sa fille avait été choquée par le « comportement » du prof, qualifié de « voyou de l’histoire », suivi par sa description des faits : la diffusion en classe de caricature du prophète, la demande exprimée aux élèves musulmans de sortir de la salle pour ne pas être choqués. Il termine son témoignage, diffusé sur Facebook, en demandant à tous ceux qui « ne sont pas d’accord » de lui adresser un message sur un 06, estimant que « ce voyou ne doit plus rester dans l’Éducation nationale, ne doit plus éduquer les enfants, il doit aller s’éduquer lui-même »

Une autre vidéo signée Abdelhakim Sefrioui, qui se présente comme membre du Conseil des Imams de France, fiché S, va jusqu’à évoquer l’humiliation des élèves musulmans. Il y raconte son « désaccord » et même sa « stupéfaction » que l’administration ait été informée de ces faits, tout en les tolérant.

Il indique que le CIF et les musulmans en France « refusent catégoriquement ce genre de comportements irresponsables et agressifs et qui ne respectent pas le droit de ces enfants à garder leur intégrité psychologique ». Il répète que l’enseignant est avant tout un « voyou », avant de faire connaître sa volonté de « mobiliser pour une action devant l’établissement et devant l’inspection académique » (…).

M. Rees estime que ces contenus ne revêtent pas un caractère manifestement illicite. Son opinion n’est pas isolée. Je partage ce point de vue. C’est par un jugement rétrospectif, parce qu’il sait quel incendie hideux a été déclenché par ces étincelles, que le lecteur peut imaginer que ces messages appelaient évidemment à la censure. Considérés à froid, au moment où ils sont produits, ils constituent des critiques virulentes, désagréables, gênantes de l’action d’un enseignant. Ils sont peut-être constitutifs d’infractions mineures comme la diffamation ou l’injure, mais pas davantage. Ils ne constituent certainement pas un appel ouvert au meurtre.

Ces messages perdent cependant tout caractère anodin, si on veut bien les interpréter à la lumière du contexte social dans lequel ils prennent place. Ce “séparatisme”, pour reprendre le mot du président de la République. Une fraction de la société débordant de ressentiment, en rupture avec les valeurs communes. Les étincelles dont il est question ont été lâchées dans un champ asséché par la colère et dont l’embrasement, s’il n’était pas certain, était au moins vraisemblable.

Pour bien décider, il fallait donc placer dans une balance, d’une part, l’absence d’appel ouvert à la violence dans ces publications et, d’autre part, l’existence de groupes d’individus extrêmement dangereux, susceptibles de se saisir d’une telle occasion pour laisser parler leur soif de sang. Qui dispose de la formation, de la légitimité politique et constitutionnelle pour réaliser une si délicate pesée ? Qui peut décider, le cas échéant, que la liberté d’expression doit s’incliner devant les risques pour la vie d’un fonctionnaire dont le nom est jeté à la foule comme en pâture ? C’est le juge, et lui seul.

Juger vite mais juger bien ?

Il n’y a que de mauvaises raisons d’abandonner une telle décision à Facebook, société commerciale américaine baignée dans la culture du free speech, vraisemblablement terrifiée à l’idée d’être accusée d’islamophobie en retirant de tels contenus. Première mauvaise raison : l’argent. Faire embaucher des modérateurs à Facebook coûte moins cher que de recruter des magistrats. Pour le remède, adressez-vous à un fiscaliste. Deuxième mauvaise raison : la vitesse. La justice française, dans un état de paupérisation historique, a déjà bien du mal à juger des dossiers civils en moins de deux ans : on ne l’imagine pas réagir à la vitesse des réseaux sociaux, qui est celle de l’éclair.

Pourtant, aucun obstacle ne s’oppose théoriquement à la mise en place d’une équipe de choc de juges du siège, devant leurs ordinateurs, micro-casque vissé sur la tête, pour opérer du “traitement en temps réel” comme le font déjà les parquetiers lorsqu’ils dirigent les enquêtes de police et de gendarmerie. Un juge du siège est en mesure de statuer seul, par ordonnance sur requête, en quelques minutes. Il pourrait être sollicité par la plateforme, confrontée à un contenu qui n’est pas manifestement illicite mais dont elle décèle le danger potentiel, par des services de police ou de gendarmerie spécialisés, ou par les services de renseignement. A cet égard, on imagine mal les renseignements français appeler les intérimaires de Twitter ou Pinterest pour leur dévoiler des éléments confidentiels issus de leurs surveillances et qui justifieraient qu’un traitement particulier soit réservé à une publication. On le conçoit davantage s’il s’agit d’appeler un magistrat. Par “traitement particulier”, on entend aussi bien suggérer un retrait qui semblait ne pas s’imposer, pour protéger une cible qu’on sait en danger, que suggérer le maintien d’un contenu alors que le juge pensait devoir le censurer. Il arrive en effet que nos services de renseignement tirent de la vie d’une publication en ligne, de ses différents partages, de sa circulation, de précieuses informations sur les groupes d’individus qu’ils surveillent.

Les appels au meurtre, la diffusion des images de l’assassinat, l’apologie du terrorisme

Si les deux vidéos jusqu’ici évoquées échappent vraisemblablement à la qualification de “contenus manifestement illicites”, il n’en va pas de même d’autres contenus produits par la suite. Avant l’attaque de Samuel Paty, d’authentiques appels au meurtre ont pu être lancés. Après sa mort, il est avéré que des images de son cadavre ont circulé. Comme toujours hélas après un attentat, des messages de soutien à l’action du terroriste ont été diffusés.

Le caractère illicite de ces publications ne fait cette fois-ci aucun doute. Il en découle que les plateformes à qui elles seraient signalées doivent les retirer promptement. Cela suppose en réalité deux choses. D’abord, qu’elles allouent à la modération des moyens suffisants, et l’État peut légitimement durcir le ton lorsque tel n’est pas le cas. Mais ensuite, il ne faut pas qu’elles se retrouvent noyées sous les signalements anodins : même dans le paradigme promu par la loi Avia, il n’existe pas de véritable hiérarchie entre les sources d’alerte. Tout internaute qui alerte la plateforme sur un contenu parfaitement inoffensif, par manque de lucidité ou malveillance, tire la manche de la plateforme, l’oblige à un examen (parfois partiellement automatisé, certes) et lui fait perdre son temps. Dans ce modèle, le Conseil constitutionnel a souligné que :

le législateur a contraint les opérateurs de plateforme en ligne à remplir leur obligation de retrait dans un délai de vingt-quatre heures. Or, compte tenu des difficultés précitées d’appréciation du caractère manifeste de l’illicéité des contenus signalés et du risque de signalements nombreux, le cas échéant infondés, un tel délai est particulièrement bref.

Vingt-quatre heures sont donc parfois trop courtes pour vider l’océan des signalements, même avec une grande cuillère. Et simultanément, ce délai est bien trop long au regard du trouble social extrêmement grave que causent des images de décapitation, d’appel au meurtre ou d’apologie du terrorisme.

La solution passe par une hiérarchisation des signalements. C’est précisément le projet d’un règlement européen en matière de contenus terroristes en ligne : chaque État membre désignera une autorité administrative ou judiciaire, qui aura le pouvoir de signaler des contenus terroristes aux plateformes. Ils devront alors faire l’objet d’un retrait en moins d’une heure.

A côté d’un tel dispositif, la loi Avia telle que rêvée par le Gouvernement ne présente manifestement aucun intérêt dans l’affaire qui nous occupe.

S’agissant de ces contenus félicitant le terroriste ou affichant la dépouille macabre de Samuel Paty, nous souhaitons souligner fermement que l’approche par les plateformes ne peut suffire. Retirer les contenus est utile pour stopper leur propagation, mais n’efface par le délit commis par les auteurs de ces messages. Ils doivent être identifiés et poursuivis. Il n’est pas douteux que, dans un dossier aussi terrifiant, les moyens adéquats seront mis en œuvre – ce qui démontrera d’ailleurs que l’usage de pseudonymes n’a pas protégé les auteurs des publications. Au quotidien, la haine en ligne n’est cependant pas poursuivie, ce qui alimente un dangereux sentiment “d’impunité en ligne” qui ne doit rien à un prétendu “vide juridique” – il n’existe pas – mais tout à un manque chronique de moyens dévolus à cette question.

Précisons encore que les internautes s’étant contentés de participer à la propagation virale de ces contenus peuvent eux aussi engager leur responsabilité civile et pénale. Depuis un vieil article de vulgarisation sur “les conséquences juridiques du retweet“, j’ai proposé sur le présent site une vision plus détaillée de cette question. Par exemple, une incrimination pénale vise l’enregistrement, mais aussi la “diffusion” d’images violentes. Le simple acte matériel de partage sur les réseaux sociaux tombe sans difficulté sous cette qualification, peu important le texte qui l’accompagne. Quant à l’incrimination d’apologie du terrorisme, si elle frappe évidemment les auteurs de messages de soutien au terroriste, elle pourrait concerner également les internautes répercutant ces messages sans les accompagner d’une distance critique, leur silence pouvant éventuellement être considéré par le juge comme un soutien, selon les circonstances.

Le risque de bascule vers des canaux chiffrés

Une mise en garde importante doit être formulée : tous les raisonnements bâtis jusqu’ici sont susceptibles d’être mis à mal par l’usage d’outils de communication “opaques”. Au fur et à mesure que les réseaux sociaux ouverts seront mieux régulés, un risque existe que la circulation de certains contenus soit organisée par d’autres voies. Les messageries chiffrées de bout en bout rendent impossible, pour la plateforme et pour les pouvoirs publics, d’avoir accès aux textes et vidéos qui transitent par leurs canaux.

Il est vrai que les auteurs de publications qui entendent toucher un large public d’inconnus ont besoin, à un moment ou à un autre, de quitter ces boucles privées afin d’assurer une diffusion “virale”. Une modération sérieuse des plateformes est donc de nature à empêcher, par exemple, des tentatives d’influencer massivement des élections nationales par la diffusion de nouvelles trompeuses. En revanche, dans l’affaire qui nous occupe, les fondamentalistes les plus radicaux peuvent se connaître préalablement et mettre en place une circulation chiffrée de leur propagande ou de leurs appels aux meurtres. Le fait de restreindre la taille des “groupes Whatsapp” n’est pas un obstacle pour des groupes bien organisés : les cercles seraient-ils composés d’au maximum 5 utilisateurs, s’ils sont bien agencés sous une forme pyramidale, il s’ensuivra une diffusion exponentielle – dont les mécanismes sont bien connus en cette période de pandémie.

Pour autant, il n’est pas du tout souhaitable d’interdire radicalement les communications chiffrées, comme nous tentons de l’expliquer ici.

Quelles propositions d’amélioration ?

Le lecteur parvient vraisemblablement au pied de cet article sans avoir compris quelle mesure simple et claire est susceptible d’éviter la prochaine affaire Samuel Paty. L’explication est simple : une telle mesure n’existe pas.

Quelques pistes ont été suggérées. Il pourrait être mis en place une cellule de traitement “en temps réel” des contenus non manifestement illicites, composée de juges judiciaires. Lorsque le règlement européen de lutte contre les contenus terroristes en ligne aura été finalisé, il pourra de surcroît désigner cette cellule comme l’organe apte à ordonner le retrait d’un contenu en moins d’une heure. Il faudrait veiller à alimenter cette task force en contenus, ce qui suppose de multiplier les sentinelles sur le terrain : les équipes de modération des plateformes, des services de police et de gendarmerie spécialisés et les services généraux, éventuellement des acteurs de la société civile reconnus pour leur fiabilité en la matière.

Sans une telle mesure, la proposition du Premier minstre de pénaliser la diffusion de données personnelles sans le consentement de l’intéressé ne changera vraisemblablement rien. Non seulement il faudra voir ce que cette incrimination ajoute à l’existant, mais l’édiction d’une telle incrimination ne créera vraisemblablement aucune obligation nouvelle d’agir pour les plateformes. En effet, il sera rare qu’une publication se révèle “manifestement illicite” simplement parce qu’elle contient des données personnelles et adopte un ton critique – sans quoi le présent article tomberait sous le coup de l’incrimination comme ayant porté atteinte à la considération de Jean Castex ou de Laetitia Avia. Un examen sérieux des faits sera nécessaire et il devrait être conduit… par un magistrat, encore.

Quand bien même les quelques suggestions présentées ici seraient suivies, soyons parfaitement clairs sur le fait qu’il ne faut pas trop en attendre. S’il est indiscutable que les réseaux sociaux amplifient ou aggravent certains maux de la société, ils ne font pas davantage. Si certains internautes, en pleine pandémie, ont relayé massivement une vidéo présentant le Sars-COV-2 comme ayant été délibérément fabriqué par l’Institut Pasteur, c’est avant tout le résultat d’une défiance inouïe envers “les élites”, d’un manque inquiétant d’esprit critique et d’une incapacité à manier des sources d’information de qualité. S’agissant des agressions “ordinaires” d’enseignants (insultes, coups), qui sont légion, elles peuvent certes être coordonnées par des moyens numériques, mais elles sont avant tout les hideux rejetons d’une société qui crache régulièrement sur ses profs et pour laquelle la violence verbale et physique constitue un moyen d’interaction comme un autre. Quant au meurtre abominable de notre collègue Samuel Paty, qui est d’une tout autre nature, il est le fruit d’une telle rupture avec les fondements même de toute vie en société que nous laissons aux spécialistes du fanatisme religieux le soin d’expliquer des ressorts mentaux qui nous sont tout à fait inaccessibles. Les réseaux sociaux nous tendent un miroir dans lequel nous découvrons le visage affreux qui est aujourd’hui celui de notre nation. Nous pouvons nous contenter de briser ce miroir. Le voulons-nous ?

Pour résoudre des difficultés aussi profondes, il faut avoir le courage de dire qu’il n’existe aucun remède miracle. Aucune mesure prise le lendemain même, et à laquelle on n’avait étonnamment pas pensé jusqu’ici, ne pourra faire disparaître tous ces démons qui rôdent. Convoquer les grandes sociétés de l’internet au lendemain des faits avec des roulements de tambour et faire mine de leur taper une fois de plus sur les doigts peut donner au dirigeant politique, pour un bref instant, l’illusion qu’il contrôle quelque chose. Taper du poing sur la table, devant les caméras, pour exiger qu’on introduise dans la Constitution une “laïcité” qui y figure depuis le premier jour fait certainement frissonner de plaisir l’électeur mal renseigné. On peut s’abaisser jusqu’à discuter de l’aménagement des rayons hallal ou casher des supermarchés, alimentant l’amalgame entre pratique religieuse ordinaire et délire terroriste. Tout cela ne résout rien. Rendons à Cédric O un hommage d’autant plus sincère que nous ne partageons aucune de ses positions passées sur des sujets tels que la reconnaissance faciale sur la voie publique : il a proposé l’une des seules contributions du personnel politique qui soit mesurée, distanciée et subtile.

Un travail de plusieurs décennies, d’une complexité inouïe, se profile pour tenter de recoller les morceaux d’un pacte républicain brisé. Il n’exclut pas des mesures à plus brève échéance, certaines en matière de réseaux sociaux, d’autres en matière de renfort des services de renseignement et de protection des professeurs de la République.

Notre collègue Samuel Paty avait eu le courage d’affronter, dans sa classe, tout la complexité du monde. Il a été tué par les partisans d’une vision binaire, simpliste et brutale de la société. De quel côté se rangent ceux qui assimilent l’achat de nourriture hallal au terrorisme ? Ceux qui n’ont pas mieux à dire pourraient se taire.

Au temps des hommages doit succéder celui du deuil. Au temps du deuil doit succéder celui de la réflexion.

 

Emmanuel Netter, professeur de droit privé à l’université d’Avignon

Vous pouvez réagir dans les marges de ce texte de la manière exposée ici.

Les réflexions initiées dans cet article ont été poursuivies ici, suite à l’expulsion de Donald Trump de divers réseaux sociaux.

You may also like...

2 Responses

  1. 22 octobre 2020

    […] billet, reproduit ici avec la permission de son auteur, a été publié à l’origine sur « Droit et numérique« , le site d’Emmanuel […]

  2. 11 janvier 2021

    […] précocement pour éviter l’enchaînement dramatique qui a conduit à l’assassinat. Dans un précédent billet, nous avions rappelé la règle posée par le Conseil constitutionnel : les plateformes ne doivent […]