Lutter contre le réchauffement médiatique

La question attentionnelle a été reconfigurée ces dernières années par le développement du temps réel, c’est-à-dire par l’accélération du rythme de nos interactions médiatisées par les machines. Dans cette tribune, le sociologue Dominique Boullier,nous invite à nous intéresser à cette accélération pour trouver les moyens de la limiter, de la réguler, pour remettre de la réflexivité là où ne domine plus que réactivité. Il est temps de trouver les modalités pour lutter contre le réchauffement médiatique !

Lorsque le gouvernement français veut lutter contre les fake news, il se propose de réguler les « accélérateurs de contenus », des opérateurs qui ne sont ni hébergeurs ni éditeurs. On ne peut qu’applaudir à une telle initiative. Cependant, les mesures que préconise le rapport visent le contrôle des contenus et de leurs émetteurs, mais ne proposent rien sur « l’accélération » des contenus à proprement parler. Or, il est temps de mettre en place des dispositifs de contrôle de vitesse dans un monde où « l’excès de vitesse mentale » est devenu une épidémie au point de générer un véritable réchauffement médiatique. Le réchauffement climatique, processus aux conséquences de très longue durée, lui, n’a guère de chances d’être sérieusement traité tant que les esprits seront soumis au réchauffement médiatique qui encourage la haute fréquence et le court terme. Cette focalisation sur le rythme est née de travaux sur l’attention commencés en 2006 (Boullier, 2009) et repris dans les livres de Yves Citton notamment – et la complémentarité avec les travaux récents de la FING sur le rétro-design de l’attention est significative de la montée de ce thème dans l’attention collective ( !) des chercheurs, des designers et des plates-formes.

Les dispositifs de la capture accélérée de l’attention

La propagation rapide de contenus falsifiés, choquants ou illégaux, ne s’explique pas seulement par la vérité/fausseté intrinsèque de ces messages ni par les stratégies des diffuseurs patentés de ces infox. Les « machines à réplications » que sont devenues les plates-formes numériques jouent un rôle d’accélération qu’il faut prendre en compte. Comme une étude publiée dans Science (Vosoughi et al., 2018) l’a montré, les fake news se propagent d’autant mieux qu’elles ont un « score de nouveauté » élevé. Il existe une prime au choquant, au radicalement nouveau, aussi aberrant soit-il, qui va favoriser la captation de l’attention, un effet de « priming » (d’amorçage) dit-on en sciences cognitives qui fait « passer devant » tout type de signal présentant cette caractéristique. La nouveauté et certaines saillances sont les sources de la distraction et de l’interférence avec nos buts (Gazzaley and Rosen, 2016). Ce modèle est typique d’un régime d’attention que j’ai appelé « l’alerte » (Boullier, 2014, 2016) qui pousse à être aux aguets en permanence au détriment de la fidélité à des habitudes ou de la projection dans un effort cognitif de longue durée. Les machines à réplications sont en effet totalement prises dans l’économie de l’attention qu’il vaudrait mieux appeler d’ailleurs désormais « la guerre de l’attention », tant l’offre est abondante et tous les coups permis. Cela n’invalide pas la traque des sites et comptes organisés pour la publication délibérée de fake news : durant la campagne électorale américaine de 2016, seulement 10 de ces comptes généraient la propagation de 65 % des tweets de fake news (Hindman and Barash, 2018). Signalons cependant que cette approche ne permet pas de traiter le mécanisme amplificateur propre aux plates-formes.

Car l’arme principale n’est pas tant le type d’information diffusée que son rythme de propagation. Le « matraquage publicitaire » des années triomphantes des médias de masse (avant 2000) se caractérisait essentiellement par un volume et une répétition visant à obtenir l’exposition maximale des téléspectateurs. Cette stratégie est désormais quasiment remplacée par une guérilla de tous les instants, qui cherche à capturer de courts moments d’attention à tous les coins de rue, ou plutôt d’écrans. Cette accélération médiatique, dont parle très peu Hartmut Rosa dans son livre publié en 2005 (Rosa, 2010), est encapsulée dans tous les dispositifs des plates-formes, dont le bouton Twitter, inventé en 2011, est le symptôme par excellence. Alors qu’il fallait recopier un tweet dans un autre tweet auparavant, et donc prendre du temps, voire même en profiter pour placer un commentaire sur le tweet republié, il suffit désormais de réagir, de saisir au vol dans un tweet un indice, une « saillance » qui choque, qui marque et qui suffit à déclencher le retweet. Chacun des utilisateurs se fait ainsi complice de la surcharge cognitive générale, puisque tous ses contacts seront alertés. La viralité est le bon terme ici puisqu’il s’agit bien d’une intoxication mentale collective activée par chaque transmetteur et pourtant équipée et amplifiée par les plates-formes.

Prenons brièvement l’exemple de l’ouragan Irma dans l’île de Saint Martin, que nous avons étudié dans le cadre d’un documentaire (« Irma 2.0 ») en cours de réalisation par Bénédicte Jourdier. Face à un événement aux effets si choquants, on se doute que le processus viral est encore amplifié. Le réchauffement climatique qui engendre ces ouragans se redouble d’un réchauffement médiatique accéléré. Les live vidéos les plus diffusées sur Facebook ou sur YouTube sont celles qui exposent une expérience inédite de proximité avec la mort, ce qui n’est pas démesuré ni « fake » car une bonne partie des habitants a en effet vraiment cru mourir (un ouragan de catégorie 5 étant extrêmement rare dans cette zone et sans commune mesure avec l’ouragan Luis, déjà vécu en 1995). Ce sont ces images prises en situation de frayeur, au sens de Tobie Nathan (1994), qui se propagent le plus vite, tout au moins lorsque les réseaux sont opérationnels au moment de l’ouragan. Dans cette rareté des informations, la frayeur se fait contagieuse à haute fréquence, parmi la diaspora d’abord puis dans tout le public connecté. Ce sont ensuite, après l’ouragan, des images de rage contre le sentiment d’abandon qui circulent le plus vite et sont le plus répliquées (la rancœur de la périphérie des périphéries contre l’Etat) de même que toutes les expressions de frayeur qui relaient des informations erronées, comme cette rumeur des 1000 morts et des cadavres qui flottent. Le choc émotionnel contribue à la viralité d’autant plus que les plates-formes facilitent la réplication systématique. Cependant, à un moment du cycle attentionnel de la crise, ce sont les messages de compassion, tout aussi émotionnels, qui vont reprendre le dessus et parmi eux, certains qui sont plus informatifs, qui aident à coordonner les secours, les aides et des informations pour les familles à distance par exemple. Or, rien dans les « affordances » des plates-formes n’empêche de cliquer vingt fois par jour sur des vidéos de frayeur qui se propageront à bien plus grande vitesse que les vidéos de recommandations qui rassurent. Les « infrastructures mentales » que sont les plates-formes deviennent ainsi des enjeux essentiels pour la gestion de crise et le climat attentionnel et informationnel. La mise en place d’un service de crise comportant notamment le « safety check » sur Facebook n’est qu’un début pour rendre effective la responsabilité des plates-formes en matière de communication. Ces réseaux deviennent en effet quasiment les référents spontanés, parfois même à la place des médias traditionnels et des services publics.

La perversité du système et ses effets délétères sur le débat public sont d’ailleurs bien perçus par la firme Twitter qui étudie sérieusement l’éventualité de supprimer… le bouton Like ou l’affichage du compteur de followers (mais pas encore ce fameux bouton RT) puisque la viralité génère à la fois du bruit et des effets négatifs sur la réputation de la plate-forme. Facebook en souffre aussi, mais la firme en reste à des stratégies de contrôle éditorial a posteriori alors que c’est l’architecture, des posts, des likes et des partages, qui provoque ce réchauffement médiatique généralisé. N’oublions pas que cet « engagement » des membres du réseau est désormais encouragé dans les nouvelles versions de l’algorithme de Edge Rank. Cela permettra de valoriser toujours plus la transmission des données personnelles aux « partenaires » que sont les marques pour qu’elles placent leur publicité de façon toujours plus intrusive et fine dans le newsfeed personnel. La conséquence immédiate de ce réchauffement en est, pour filer la métaphore, « la fonte généralisée de la calotte d’esprit critique » qui refroidissait tout l’espace public. Whatsapp, propriété de Facebook et mis en cause en Inde par les rumeurs diffusées en ligne et à l’origine de lynchages, va réduire l’effet de propagation de ses groupes en limitant le transfert de messages à 5 destinataires. Comme on le voit, divers acteurs commencent à envisager sérieusement que les architectures de réplications qu’ils ont eux-mêmes créées deviennent toxiques pour la vie publique, sans se contenter de rejeter la faute sur les utilisateurs irresponsables ou sur des émetteurs mal intentionnés.

Parmi les choix d’architecture, celui qui a systématisé le principe des notifications n’est pas pour rien dans la réactivité qu’il suscite chez les utilisateurs de smartphones (mais aussi de PC) et dans l’encouragement à une multiactivité qui permet de ne rien rater (comme le veut le slogan Fear of Missing Out). Les ressorts cognitifs de l’attention et de sa rareté sont certes individuels, les tendances lourdes à la vitesse et à la réputation sont certes culturelles, mais les dispositifs techniques amplifient les « réplications à haute fréquence » au détriment des autres régimes d’attention, puisqu’ils sont en concurrence. Autant il est passionnant de s’intéresser à ces mécanismes de propagation et aux traces ainsi fournies pour mieux comprendre nos compétences humaines de réplications, d’imitation et de mémétique (Boullier 2018), autant il est indispensable d’alerter sur la dérive actuelle en raison de la force de frappe des réseaux sociaux notamment.

La lutte contre le réchauffement médiatique pourra aussi directement contribuer à celle contre le réchauffement climatique car chaque mail, chaque tweet, retweet, like et autres activités en ligne génèrent une consommation énergétique imperceptible pour l’individu mais très significative lorsqu’elle fait système (selon l’Ademe, un Mo envoyé génère 15 grammes de CO2 et consomme 24 Wh) : les fermes de serveurs de Google ou Facebook hébergées au Groenland ont beau tenter d’exploiter des zones froides ou des énergies durables, elles augmentent sans cesse leurs consommations à une vitesse dictée par les effets combinés de la propagation médiatique accélérée et de la connexion étendue au monde entier.

Tout l’espace public est affecté : publications, publicité, débat public et publications scientifiques

Au-delà de la communication interpersonnelle, tous les régimes de publication sont affectés. L’espace public conçu avec les révolutions anglaise, américaine et française est désormais remis en cause, et les cyclones, les incendies et les inondations attentionnelles occupent entièrement notre « temps de cerveau disponible ». C’est vrai pour les médias traditionnels aussi, qui constituaient les régulateurs de ce climat, de cette « chambre intérieure collective » (Sloterdijk, 2003), de « l’esprit du temps ». Ils se trouvent eux aussi aspirés par ces typhons de la dépêche et de l’information continue au détriment des autres temporalités du journalisme que sont les nouvelles et l’investigation. Certes, tous en sont conscients et cherchent à résister mais les pressions économiques sont devenues tellement fortes en raison de la dépendance aux recettes publicitaires que cela les fragilise encore face à la réactivité des médias sociaux. Il n’est plus rare que des articles de médias traditionnels soient consacrés aux seuls commentaires d’un tweet.

La publicité, qui est aussi un régime de publication, est aussi affectée. Elle s’est d’abord transformée en une guérilla de tous les instants, alimentée par les agences de social listening qui veillent sur tous les signaux d’alerte présents sur ces mêmes réseaux sociaux pour réagir toujours plus vite. Mais les placements publicitaires classiques ont eux-mêmes subi une accélération extrême puisqu’ils se font sous forme d’enchères extrêmement réactives (et gérées par des automates connectés aux autres automates de calcul de Google ou de Criteo par exemple).

Le débat public est lui aussi désormais totalement infesté par cette contrainte de la haute fréquence qui ne repose que sur la seule « petite phrase », déjà connue dans les anciens temps froids médiatiques (McLuhan, 1968). Cette petite phrase est amplifiée désormais par la viralité des tweets, dont Trump devient le centre de production à la chaîne, le réacteur nucléaire qui irradie même toutes les traditions diplomatiques, pourtant fameuses pour leur lenteur. Quoi de mieux pour empêcher de débattre que de chasser un tweet choquant par un autre tweet insultant ou délirant ? Tous les followers, ces suiveurs (qui ne sont ni audience ni public), constituent une version numérique des rats ou des enfants du joueur de flûte de Hamelin, se retrouvent sidérés et amplifient encore ces effets en republiant les tweets, que ce soit pour les soutenir, les critiquer ou les moquer. Ce réchauffement médiatique engendre une réactivité qui tue toute réflexivité. Or, tout l’espace public était supposé permettre de produire ce débat contradictoire argumenté qui, au bout du compte et idéalement, devait à la fois contribuer à la formation de l’opinion des citoyens et favoriser une meilleure décision, éclairée par les arguments. Tout visiteur des forums, tout lecteur de pages Facebook et tout suiveur de comptes Twitter aura aisément noté la tension immédiate qui naît à chaque contradiction, rejetée violemment, moquée ou disqualifiée plus souvent que contredite. Certains comptes se sont fait une spécialité de cette entreprise de destruction de l’espace public, les trolls, dont on sait, avec le slogan « don’t feed the troll » qu’ils se nourrissent de la réactivité, de leur capacité à provoquer la réaction, souvent sans rapport avec le débat d’origine bien entendu.

Pensons enfin à ce qu’est devenu le régime de publication scientifique qui a été au cœur de l’émergence des démocraties et du modernisme à la fois, ce débat institué entre pairs à travers la médiation des publications dans des revues. Désormais, le slogan « publish or perish » s’est imposé à toute l’économie cognitive collective et se traduit par une frénésie de la quantité, qui se traduit même dans l’inflation des citations ou dans la publication avant toute révision pour rester le premier sur une thématique. Ce stress généralisé est lui-même capté par quelques grands groupes éditoriaux qui ont mis en coupe réglée les bibliothèques publiques pour les obliger à payer des publications entièrement réalisées par leurs propres chercheurs sur des financements publics le plus souvent. L’Open Access tend cependant à contester cette hégémonie, mais pourra-t-il contrecarrer cette autoréférence du nombre de publications que les institutions publiques de recherche elles-mêmes encouragent ? Le réchauffement médiatique gagne ainsi ceux qui devraient garder la tête froide et la priorité au temps long, les chercheurs eux-mêmes. Car ce qu’il convient désormais de reconstituer n’est sans doute pas tant l’espace public que le temps public, au sens du rythme qui permet la constitution d’un public dans une démocratie, un rythme qui n’écrase pas le temps nécessaire à la discussion sur les finalités des choix, contre le solutionnisme technologique (Morozov, 2014) qui veut la réponse avant même d’avoir bien posé la question. La métaphore de « l’espace » – très francophone mais traduisible en « public sphere » -, avait sa valeur pour penser les lieux et les instances du pouvoir et leur équilibre. Désormais, c’est leur temporalité et leur rythme qui sont mis à mal par un système technique qui s’affranchit quasi totalement des espaces au sens traditionnel et qui vit 24/7 (Crary, 2014) et à haute fréquence.

Le creuset de la finance à haute fréquence

Cette haute fréquence généralisée s’inspire d’une source puissante qui a fini par se diffuser à tout le système économique : la finance, devenue spéculative, ne vit que de cette accélération des paris sur les attentes des autres investisseurs. Le trading haute fréquence (HFT) constitue la pointe extrême de cette spéculation et se déroule désormais à la milliseconde près. L’automatisation de toutes ces « décisions » constitue de fait un autre régime de coordination économique. La délibération sur les « valeurs » ou sur les « fondamentaux » est désormais absente et se trouve remplacée par des anticipations d’image, à coups de signaux donnés aux marchés, tout aussi « fake » que ce qu’on déplore dans le régime médiatique contemporain. Toute révision de ce rythme de l’espace public devra donc à un certain moment mettre en cause le modèle dominant de la finance dont la dictature de la réputation instantanée soutient tout le réchauffement médiatique. Les surchauffes que sont les bulles financières sont désormais notre quotidien dans l’espace public aussi. La quête des investisseurs s’est étendue à toutes nos activités, comme le montre Michel Feher (2017), que l’on soit précaire ou autoentrepreneur, intermittent ou startupeur, chercheur ou maire d’une métropole, Etat ou media. Car tout le monde vit à crédit, vit de cette croyance que l’on doit faire partager à coups de « pitches » toujours plus convaincants, pour obtenir la bonne évaluation, et donc la bonne réputation, et donc le bon investisseur. Ce stress généralisé ne permet en aucun cas une délibération ni une réflexivité et tous ces indicateurs de vitesse et de volume sont devenus en fait autoréférentiels : on cherche à atteindre des scores sur Facebook, sur Twitter, aussi bien que dans les médias ou dans la finance sans réellement discuter de ce qu’ils valent, sans mesurer comment ils programment nos comportements en profondeur.

La sécurité des réseaux sacrifiée sur l’autel de la vitesse

Les conséquences sont terribles sur notre état mental collectif, comme le dérèglement général des systèmes politiques le montre, mais elles sont aussi inquiétantes en matière de sécurité. Car l’insistance des plates-formes du web sur la vitesse à tout prix a conduit à sous-estimer totalement la fragilité du réseau des réseaux, internet, et en particulier de son protocole majeur pour les contenus, le web. Les mesures de sécurité qu’il serait nécessaire de prendre, dont un chiffrement généralisé et des formes d’authentification renforcées, sont délibérément repoussées à plus tard par un système technique qui s’autogouverne en totale impunité et opacité. Une première avancée a été réalisée avec le RGPD, qui ne traite cependant pas les questions de sécurité des architectures de réseau ni des effets délétères de l’accélération des contenus. Un « Fukushima des données personnelles » se profile à travers les fuites de données des grandes plates-formes comme Facebook mais aussi à travers une succession ininterrompue de hacks toujours plus fréquents et massifs. Ils peuvent désormais exploiter les failles de milliards d’objets connectés que l’on lance sur le marché sans inspection sérieuse et en toute irresponsabilité. Or, si la sécurité est autant délaissée sur le plan des investissements, c’est en particulier parce qu’elle exigerait un certain ralentissement de tout le réseau (on parle de secondes au maximum, cependant !). L’arbitrage entre sécurité et vitesse s’est toujours fait au profit de la vitesse, avantage perçu immédiatement par les clients-utilisateurs au détriment de la sécurité, dont la nécessité n’est perçue qu’après une catastrophe (et cela dans tous les domaines). C’est dire que les remèdes au réchauffement médiatique doivent viser le cœur de la machine, la finance et l’architecture du réseau, pour avoir une chance de fonctionner. Elles mettent en œuvre ce que la FING appelle «la fausse réponse de la mesure du temps passé ».

Reprendre le contrôle : « Code is law »

Cependant, des mesures prophylactiques peuvent être déjà prises et non seulement en vantant les « bonnes pratiques », qui sont autant de manières de culpabiliser les utilisateurs, quand bien même on appelle cela les « responsabiliser ». Une centaine d’applications sont désormais disponibles sur les « stores » des deux grands systèmes d’exploitation mobiles pour traiter notre supposée addiction, mais elles ne permettent pas de réguler la réactivité que les plates-formes encouragent. Il faudrait plutôt redonner des prises techniques cognitives et politiques aux utilisateurs de ces réseaux sociaux pour reconfigurer leur environnement. Ce ne sont pas des châteaux forts qu’il faudrait reconstruire, mais plutôt des régulateurs de vitesse. Le gendarme couché, le ralentisseur ou la chicane sont des méthodes de régulation de la vitesse qui ont fait leurs preuves sur les routes, indépendamment des contrôles radars ou de la répression policière. C’est ce que Lessig (1999) désignait sous l’aphorisme « code is law ». Le design des plates-formes, des sites, des applications, doit totalement être passé au crible de contrôleurs de vitesse (et des « auditeurs d’algorithmes », Mayer-Shönberger et Cukier, 2013) pour les rendre conformes à des régulations de vitesse. Ce qui veut dire en premier lieu les rendre possibles puis, si nécessaire, les rendre obligatoires. Lorsque l’on préconise pour la protection de la vie privée d’intervenir dès la conception selon un principe de « privacy-by-design », on sait la pression qu’il convient de mettre pour que les firmes passent à l’acte. Mais le principe d’intervenir dès la phase de design (« cooling-by-design », refroidissement dès la conception) reste l’objectif puisqu’il faut donner a minima la liberté aux utilisateurs d’utiliser ces fonctions.

Les mesures de contrôle du rythme des réseaux sociaux

Comment construire un système de contrôle de vitesse attentionnelle sur internet et sur le web ? Voici quelques propositions très précises qui demanderont cependant une volonté politique très ferme pour parvenir à convaincre ou à s’imposer aux plates-formes.

L’un des critères clés de santé mentale en matière d’attention, c’est le sommeil. La vigilance nécessite une énergie qui doit être reconstituée par des périodes de sommeil, plus ou moins longues et de préférence adaptées aux cycles biologiques des 24 heures. Prenons donc ce critère pour calculer la charge mentale supportable pendant 24 heures. De plus, notre activité en ligne fonctionne massivement aux réactions à ce que d’autres ont posté. Veillons donc à limiter notre propre réactivité selon ce critère des 24 heures et ne nous contentons pas de supprimer les alertes car c’est notre activité de publication et de re-publication qui provoque ces alertes à son tour. Ainsi, l’architecture des systèmes d’information et des applications devra nous permettre (puis nous encourager avec des récompenses voire enfin nous imposer dans un second temps si nécessaire) de limiter nos posts sur toutes les applications de réseaux sociaux à un par période de 24 heures (dont tous les tweets notamment). Pour cela, il faut en effet de nouvelles métriques, comme le propose la FING, des métriques de rythme. De même pour nos commentaires sur chaque site ou application, ce qui réduira immédiatement l’effervescence des débats sur ces sites : nous devrons réfléchir avant de poster et être sûr qu’une réaction en vaut la peine au risque de nous priver d’une autre réaction sur un autre sujet nettement plus important. Les frustrations seront grandes au début, les manœuvres pour contourner ces systèmes seront multiples mais un apprentissage du ralentissement du débat et des contributions se fera, comme pour la vitesse automobile. N’oublions pas cependant que des armées de designers, d’analystes de données et de spécialistes de l’expérience utilisateur ont consacré des heures de conception et de tests pour s’assurer que les membres des réseaux sociaux resteraient toujours plus longtemps sur le réseau au point de ne plus le quitter (1 heure par jour en moyenne passée par les membres de Facebook en version mobile aux USA). Les affordances (Norman, 1988) et les nudges (Thaler et Sunstein, 2010) , toutes ces méthodes comportementales de suggestions rendues quasi incontournables grâce à leur design, sont alors conçus dans cet objectif de captation de l’attention. Il serait cependant possible d’exploiter les mêmes méthodes pour ralentir le rythme des applications et rendre perceptible l’amélioration apportée à l’expérience. Les revendications de liberté de choix dans les usages des réseaux sociaux ou de responsabilité individuelle sont légitimes, mais pèsent peu face à des artifices de conception qui savent exploiter toutes les faiblesses de nos cerveaux et de nos passions et nous faire réagir sans vraiment prendre de décisions au sens délibératif.

Ce qui vaut pour les publications élaborées (ou presque, car lorsqu’on duplique des contenus, l’effort est minime), doit aussi s’appliquer aux réactions les plus élémentaires installées dans les applications : un seul like par jour, un seul retweet par jour, une seule recommandation ou pouce en l’air sur un site de presse, etc. Tout cela réduirait considérablement la course aux scores qui est devenue une obsession du marketing comme des individus publiants. Et cela permettrait par la même occasion de tuer le business de l’astroturfing, des fermes à clic et des robots qui génèrent quasiment 8 % des tweets, ce qui rend tous les scores « d’engagement » ou de « reach » totalement fantaisistes mais pourtant rassurants pour le marketing. Car la posture de pure réactivité des comptes humains est déjà un automatisme, ce qui facilite la programmation d’algorithmes (ou de travailleurs du clic, Casilli, 2019) qui simulent leur comportement. A cette occasion, la convergence avec les mesures de lutte contre l’invasion des robots que mènent les plates-formes comme Twitter serait donc possible.

Les applications de messagerie impératives ou coopératives

Qu’en est-il des applications de messagerie de toutes sortes, qui peuvent parfois se transformer en réseaux sociaux dès lors qu’on poste pour des groupes ? Des séquences d’échanges rapides et brèves sont souvent nécessaires pour obtenir la coordination que ces réseaux promettent. Dans ce cas, il faut adopter une distinction claire des fonctions qui explicitent cette tâche de coordination et lui donnent un délai pour opérer. La taille des groupes (sur Facebook, Whatsapp ou Messenger par exemple, appartenant tous à Facebook et en voie de fusion semble-t-il) pourrait être limitée ainsi que leur durée de vie sous peine d’encombrement attentionnel garanti. Les administrateurs de ces groupes sont parfois eux-mêmes conscients des dégâts que produisent aussi certains membres publimaniaques, incapables de limiter leur nombre de posts dans une même journée. Il doit donc être possible de leur offrir une fonctionnalité de régulation de ce type, comme la limitation du nombre de republications qu’envisage Whatsapp : à eux de décider s’ils l’appliquent a priori, selon les situations, avec l’accord de tous et de leur propre initiative. De même, tout ce qui peut encourager à surveiller l’activité de l’interlocuteur et sa réactivité (« vu à » et marquage du message sur Whatsapp ou indicateur de rédaction de message en cours sur Skype ou sur Messenger par exemple) devrait pouvoir être au moins désactivé par l’un ou l’autre des participants car la réponse devient, grâce à ces saillances, impérative.

N’oublions pas cependant que Facebook en Tunisie et Twitter en Egypte ont joué un rôle essentiel pour la coordination des printemps arabes (et encore aujourd’hui pour le mouvement des gilets jaunes) et que les fonctions de régulation rendues possibles ne doivent pas pour autant étouffer le potentiel d’action collective de ces réseaux. En revanche, il faut reconnaître que ces plates-formes étaient inadaptées pour engager un débat programmatique. Les insultes et les batailles médiatiques à haute fréquence faisaient rage sur ces mêmes plates-formes dès lors que des débats tentaient de démarrer. On conçoit aisément que ce ralentissement généralisé de la propagation n’est guère compatible à première vue avec les modèles économiques de plates-formes qui ont tout fait pour encourager cette réactivité à haute fréquence pour pouvoir vendre ces traces personnalisées et les placements publicitaires les plus pertinents. L’exemple récent du New-York Times qui a interrompu en 2018 ses placements personnalisés peut cependant donner une idée du raisonnement à plus long terme que devraient tenir les marques et les plates-formes : la fidélité à une marque réputée constitue un régime d’attention durable nettement plus profitable que le harcèlement de potentiels clients qui perçoivent bien la manœuvre de personnalisation souvent grossière et peu conforme aux exigences de privacy.

Le harcèlement des mails au travail

La règle des 24 heures est plus compliquée à mettre en place pour les mails, car l’activité professionnelle peut nécessiter une grande réactivité… dans certains cas, elle impose parfois des échanges en allers-retours fréquents…. Les habitudes de réactivité ont été encouragées au départ par les modèles de management fondés sur une disponibilité de tous les instants. Mais cette pression à la connectivité s’est retournée contre les missions principales des salariés ou des collaborateurs, qui voient fondre leur temps d’attention consacré aux tâches à haute valeur ajoutée ou demandant une vraie concentration. Le « syndrome de saturation cognitive » détecté dès la fin des années 90 (Lahlou, Lenay et al., 1997) se traduit par un hachage permanent des séquences de travail. Les entreprises ont désormais la possibilité de réserver les échanges par mail à certaines périodes de la journée, comme le fait par exemple HP. Cette mesure relève d’un véritable pilotage du rythme attentionnel qui peut faire l’objet d’une négociation avec les salariés. Dans ce cas, on le voit, ce n’est pas dans le code que la solution est trouvée mais dans une règle collective.

La responsabilité des chaînes d’information répétitives

Revenons cependant sur les enjeux médiatiques de masse et sur les mesures qu’il est possible de prendre dans leur cas, car il serait simpliste de penser que les problèmes attentionnels ne sont dus qu’aux réseaux sociaux. Les chaînes d’information dite « continue » ont constitué d’une certaine façon la première alerte du réchauffement médiatique. La permanence n’est pas tant le problème, que la répétition à laquelle elle contraint. Car les contenus ne sont pas suffisamment nouveaux pour justifier des alertes tous les quarts d’heure. Or, la fréquence des bulletins d’information exige un remplissage qui parfois se voit nettement, avec les images que l’on passe « en boucle », de même que les bandeaux d’information qui passent eux aussi « en boucle ». Cette figure de la boucle est délétère du point de vue de la réflexivité car elle entraîne une sidération pour un message qui n’est plus nouveau ni d’ailleurs analysé : le cerveau humain se met « en boucle » lui-même et ressasse les images qui le captivent d’autant plus qu’elles sont spectaculaires, c’est-à-dire inédites ou choquantes (novelty and salience). Les « commentateurs » et « experts » peuvent faire assaut de réflexions éclairées, les images et les bandeaux, eux, tournent en boucle pour les événements de longue durée, mais aussi pour ceux, mêmes brefs, qui sont déjà passés et que l’on continue à commenter. Cela signale surtout l’absence de nouvelles images et l’impératif de remplissage par la répétition. Or, le spectateur n’en est pas averti. A une demie-heure d’intervalle, il peut encore avoir l’impression que l’attaque est encore en cours, que les toits continuent de s’envoler, que les barricades sont toujours en feu, alors qu’il s’agit exactement de la même image déjà vue dix fois. Pour contrer cet effet de répétition qui amplifie certaines images plus spectaculaires au détriment des autres, il serait souhaitable par exemple de rendre obligatoire un bandeau en bas de toutes les images comportant la date et l’heure de tournage, ainsi que le nombre de fois où cette image est déjà passée à l’écran (ou en fond d’écran). Cela constituerait une aide au détachement de la part du spectateur et cela obligerait les chaînes d’information continue à afficher leurs ambitions en matière de diversité des sources d’images (ou au contraire à rendre visible leur faible ambition).

On comprend vite que ce genre de mesures risque de mettre en péril leur modèle attentionnel et leurs prétentions de chaînes d’information permanentes (il vaudrait mieux parler d’ailleurs de « chaînes d’information répétitives »). Mais pour imposer ce modèle à ces chaînes, le pouvoir du CSA en France et des autres autorités de l’audiovisuel paraît tout à fait adapté et l’on peut même s’étonner que ces instances ne se soient pas encore saisies de ces enjeux attentionnels dans l’audiovisuel. Mieux même, cela devrait constituer leur mission principale pour espérer reconstruire un nouvel espace public fait de réflexivité. Et l’on peut dès lors aisément considérer que les enjeux de tous les médias en ligne et des réseaux sociaux sont désormais tellement voisins, qu’il convient d’unifier les instances de régulation des accélérateurs de contenus et des chaînes d’information répétitives. La régulation distribuée entre instances en fonction des traditions techniques de diffusion et des statuts des entreprises (ARCEP, CSA, CNIL par exemple) peut sur ce plan devenir contre-productive : comme si les autorités de sécurité routière ne pouvaient pas réguler les routes départementales, mais seulement les autoroutes par exemple. Or, les problèmes de sécurité attentionnelle, de réchauffement médiatique généralisé sont transversaux à tous les vecteurs médiatiques. Ce sont certes les réseaux sociaux et les plates-formes qui semblent orchestrer l’accélération générale que les médias plus traditionnels se sentent obligés de suivre mais la régulation du climat médiatique doit traiter tout l’écosystème. Sans doute devront-ils devenir très pointus techniquement selon les vecteurs puisqu’il s’agit bien d’intervenir dans l’architecture technique même qui produit l’accélération et le réchauffement. Et sans doute aussi que leur prise en compte dans les entreprises pour des raisons de santé publique pourraient relever comme le propose la FING d’« Attention Protection Officers ».

Il serait cependant plus efficace et pertinent pour des plates-formes internationales d’adopter l’échelle européenne pour cette régulation. L’exemple du RGPD montre que c’est possible et que cela constitue un modèle qui renforce une confiance durable pour toute l’économie numérique. Un « règlement général de protection du climat attentionnel » (RGPCA) devrait alors être mis en place puisque la matière première de toute l’économie numérique est désormais faite de nos ressources attentionnelles.

*

Notre souci de recommandations opérationnelles peut sembler quelque peu prétentieux, utopique ou radical ou encore négligeant les responsables des fake news. Nous l’avons dit, ces propositions peuvent très bien se combiner avec d’autres mesures. Notre objectif est avant tout d’attirer l’attention ( !) sur le rôle des architectures techniques et du rythme attentionnel qu’elles encouragent, celui de l’alerte et celui de la réactivité, qui amplifient les réplications. Dès lors la question des fake news peut être totalement révisée, puisque l’on peut tarir la mécanique de la propagation sans devoir se contenter de faire une chasse épuisante et souvent controversée aux sites de désinformation. Bref, retirez l’eau de la contagion et le poisson « fake news » aura beaucoup de mal à survivre.

Dominique Boullier

Dominique Boullier est chercheur au Digital Humanities Institute à l’Ecole polytechnique fédérale de Lausanne (EPFL).
___
Références

  • Dominique Boullier, « Médiologie des régimes d’attention » in Citton, Y. (ed.), L’économie de l’attention. Nouvel horizon du capitalisme ?, La Découverte, 2014, pp. 84-108.
  • Dominique Boullier, « Les industries de l’attention : au-delà de la fidélisation et de l’opinion », Réseaux, n°154, 2009.
  • Dominique Boullier, Sociologie du numérique, Paris, Armand Colin (collection U), 2016.
  • Dominique Boullier, (2018) « Distribution du pouvoir d’agir des entités sociales dans les études informatiques sur Twitter », Sociologie et Sociétés, vol. 49/ 2.
  • Antonio Casilli, En attendant les robots. Enquête sur le travail du clic, Paris, Le Seuil, 2019.
  • Yves Citton, L’économie de l’attention. Nouvel horizon du capitalisme ?, Paris : La découverte, 2014.
  • Jonathan Crary, 24/7, le capitalisme à l’assaut du sommeil, La découverte, 2014.
  • Michel Feher, Le temps des investis, Essai sur la nouvelle question sociale, Paris, La Découverte, 2017.
  • Adam Gazzaley and Larry Rosen, The Distracted Mind, MIT Press, 2016.
  • Matthew Hindman and Vlad Barash, Disinformation : « fake news » and influence campaigns on Twitter, Rapport Knight Foundation, Oct. 2018, 62 p.
  • Sahdi Lahlou, Charles Lenay, Y. Gueniffey, M. Zacklad, « Le COS (cognitive overflow syndrome) », Bulletin de l’Association pour la Recherche Cognitive, n° 42, 1997, p. 39.
  • Alexandre Laumonier, 6, Zones sensibles, 2013.
  • Lawrence Lessig, Code and other laws in cyberspace, Basic Books, 1999.
  • Viktor Mayer-Schönberger et Kenneth Cukier, Big Data : A Revolution That Will Transform How We Live, Work, and Think, New York (NY), Houghton Mifflin Harcourt, 2013 ; Big Data, la révolution des données est en marche, Robert Laffont, 2014.
  • Marshall Mac Luhan, Pour comprendre les media, Paris, Mame, 1968.
  • Evgeny Morozov, Pour tout résoudre cliquez ici : L’aberration du solutionnisme technologique, FYP éditions,‎ 2014.
  • Tobie Nathan, L’influence qui guérit, Paris, Ed Odile Jacob, 1994.
  • Donald A. Norman, The psychology of everyday things, New-York, Basic Books, 1988.
  • Hartmut Rosa, Accélération. Une critique sociale du temps, Paris, La Découverte, 2010.
  • Peter Sloterdijk, Sphères III Ecumes, Paris, Maren Sell éditeur, Pauvert, 2005.
  • Richard Thaler et Carl Sunstein, Nudge. La méthode douce pour inspirer la bonne décision, Paris, Vuibert, 2010.
  • Soroush Vosoughi, D. Roy and S. Aral, “The spread of true and false news online”, Science, 359 (6380), 2018, 1146-1151.

À lire aussi sur internetactu.net

0 commentaires

  1. enfin des idées de regulation. ça fait du bien de lire cet article.

  2. Excellente tribune ! Bien écrite, bien sourcée, et munie d’une solide base sur les problématiques techniques des différents outils et services

  3. En filant la métaphore … Parmi les régulateurs de vitesse « physique », il y a les ronds-points. Hier sorte de non-lieu, plus d’évitement que de rencontre entre zones géographiques, ils ont pris la parole et des couleurs (enfin, une, le jaune), dans un détournement-retournement qui montre toute l’ambiguïté du point dit régulateur…
    PS : pourquoi ne parle-t’on plus jamais des travaux de Paul Virilio sur l’accélération ???