À l’heure où le numérique nous donne accès à une grande quantité de contenus, où de grandes masses d’informations non structurées côtoient les véritables connaissances, où certains internautes n’arrivent pas à discerner le vrai du faux, il nous est apparu important de partager un volet du problème rarement évoqué, à savoir la manière dont l’information apparaît sur nos écrans et pour quelle raison.
Rencontre avec Francesca Musiani, sociologue chargée de recherche au CNRS, spécialiste de l’architecture du web.
Nous sommes aujourd’hui, face à nos écrans, confrontés à une grande quantité d’informations sensationnelles ou fausses, à côté de connaissances « légitimes ». Peut-on encore hiérarchiser et sélectionner ces informations ?
Sur la question de l’information sur Internet, ce que je vois du point de vue historique – et de ce fait avec une grande différence par rapport à l’avant-Internet – c’est la question de la surabondance. Il y avait, avant Internet, un système de mise à disposition de l’information très top/down, l’information accessible ayant fait l’objet d’une grande sélection de la part des acteurs préposés à le faire (l’État, les médias…). Aujourd’hui, la surabondance place l’internaute face à ces masses d’informations. Pour ceux qui n’ont pas de repères et le recul pour trier et hiérarchiser l’information, c’est assez complexe. La propagation des infox et de la désinformation peut être corrélée au désemparement de l’internaute face à cet océan d’information.
D’un autre côté, il faut prendre du recul sur ce qui est véhiculé. La plupart du temps, la désinformation n’est pas directement liée à une idéologie politique, mais très souvent, elle est une machine à faire de l’argent. C’est très structuré, très industrialisé, certains acteurs ayant compris qu’ils peuvent se servir de l’écosystème numérique pour en avoir un profit, entre autres financier. Donc, la surabondance informationnelle d’un côté, et l’industrialisation de la désinformation de l’autre sont les causes principales de la situation.
Dans ces campagnes d’infox et de propagande, il y a souvent autre chose que les aspects politiques. Il faut prendre en compte des considérations économiques liées au fonctionnement propre des plateformes. L’infox remonte, non parce qu’elle est une infox, mais parce que son contenu « sensationnaliste » répond aux critères de fonctionnement des plateformes. Sa rédaction est orientée afin de capter l’attention des internautes.
Et pourquoi ?
Plus l’internaute reste sur la plateforme, plus on peut capter ses données qui sont l’essence même du fonctionnement économique de ces structures.
Google ne met pas délibérément en marche les infox, il n’en est pas le chef d’orchestre, mais les rouages techniques, y compris les algorithmes, font remonter les mauvaises informations car elles sont souvent associées aux contenus les plus sensationnalistes et donc, les plus viraux.
Les producteurs d’infox se serviraient alors de ce système ?
Exactement. On a vu quelques cas assez frappants, comme ces jeunes d’un village en Macédoine qui sont devenus une fake news factory. En comprenant le fonctionnement des « coulisses » des plateformes, notamment Facebook, ils orchestraient la diffusion de certains types d’information, avec tous les bons mots clés, et tout cela pouvait circuler très vite. En associant cela à des sites web et des publicités, ils ont pu gagner des sommes considérables – plusieurs mois de salaire dans leur pays – en quelques jours. Quand il est question de réguler les infox, on se focalise sur la guerre des contenus. Faut-il « flagger »1 tel ou tel autre contenu ? Faut-il supprimer le profil de telle ou telle autre personne ? Mais on sous-estime les causes systémiques de tout cela, qui sont dans les rouages des infrastructures des plateformes et leurs modèles d’affaires.
Il est évident que les contenus et les lois sont importants, mais pour trouver un équilibre entre la censure et le contrôle des contenus « dangereux », il faut aussi s’attaquer à ce biais.
Est-ce que la loi peut être efficace ?
Elle le peut, mais à l’heure actuelle, elle se concentre sur la surface, la « couche visible » de l’Internet, et elle sous-estime les rouages des plateformes.
Est-ce qu’on peut faire fonctionner la loi et l’éducation aux médias ensemble ?
Il s’agit de deux aspects assez différents et complémentaires. Dans l’histoire de la gouvernance d’Internet, les stratégies de régulation efficaces sur des sujets auxquels on souhaitait apporter une réponse normative ont toujours comporté une pluralité de systèmes normatifs.
Cette pluralité normative est une des grandes originalités de l’Internet. Dès le début de la conception d’un service Internet, il y a des normes inscrites dans l’infrastructure technique. Les développeurs font des choix soit pour améliorer les performances techniques, soit pour promouvoir l’égalité entre les nœuds2 ou les hiérarchiser.
Ensuite, il y a des aspects économiques et de marché. Il convient notamment de s’assurer que des mécanismes soient en place pour que les petits ne soient pas toujours absorbés par les grands !
Des normes sont aussi mises en place informellement par des communautés particulières, par exemple certains réseaux pair-à-pair ou de partage de fichiers, ou encore de chat.
Et il y a la norme classique top/down, qui relève du droit et de la loi. Mais toutes les fois où le droit a voulu faire tout seul sur Internet, cela n’a pas fonctionné. Par exemple la loi Hadopi a été pensée uniquement en inscrivant dans le droit un principe que certains acteurs « ayant-droit » pensaient souhaitable. On a vu le résultat et les effets collatéraux qui sont apparus.
Et l’éducation ?
Il s’agit d’une dimension nécessaire et importante.
Si on revient aux causes historiques de la propagation des fausses rumeurs, cela arrive moins dans des milieux où il y a la possibilité de mener un échange ouvert et avec un niveau d’éducation en moyenne assez important. La propagation se passe plutôt dans des milieux fermés où la rumeur peut prendre pied, là où les croyances étaient fortes. Donc, les questions de culture numérique et d’éducation aux médias sont primordiales pour lutter contre ces phénomènes.
Dans cette abondance d’information, est-ce que l’abondance de « vraies news » peut agir positivement ?
L’amélioration de la culture numérique des utilisateurs pourrait s’élargir par rapport à la question des contenus, et englober des questions relatives aux algorithmes. Bien que ces derniers ne soient pas identiques de plateforme à plateforme, il y a plusieurs caractéristiques communes, qui cherchent à exploiter des dynamiques de proximité, de réputation, de communauté.
Mais qui peut décrypter cela dans un contexte de secret industriel ?
Il y a des niveaux de décryptage et de restitution qui sont possibles. On peut aller plus ou moins loin.
Le fait qu’il y ait un secret industriel peut aussi servir d’alibi. Même si on ne connaît pas la « recette magique » de Google, on peut faire des déductions sur des principes qui le guide.
Parfois, les plateformes elles-mêmes « se prennent les pieds » dans leurs propres stratégies. Par exemple, quand Facebook a mis des drapeaux sur des contenus délicats en guise de mise en garde, les internautes cliquaient en réalité plus sur ces contenus et passaient plus de temps dessus. L’idée du départ étant de laisser le choix à l’internaute, en le prévenant du caractère délicat du contenu tout en laissant ce dernier visible… Finalement le drapeau a attiré plus qu’il n’a repoussé. On voit bien ici qu’il est nécessaire, avant les efforts de régulation, de comprendre si possible comment marchent le cerveau et les comportements des personnes.
Comment peut-on traduire cela au niveau du code ?
Il y a des informaticiens qui essaient de faire de la rétro-ingénierie des algorithmes afin d’avoir des indications quantitatives.
De mon côté, en tant que sociologue des techniques, je cherche par le biais d’entretiens à comprendre les coulisses du développement des choses. J’essaie de comprendre les choix qui sont à la base de ce développement, comment l’appropriation des premiers utilisateurs a pu engendrer une modification.
Le développement des techniques est tout sauf linéaire. Il y a plein d’allers-retours. Des effets inattendus, techniques ou pas, apparaissent souvent au cours du développement d’une innovation.
Je n’ai pas pu le faire avec Facebook, mais avec des projets et des personnes dont les pratiques sont plus ouvertes, il est possible de savoir ce qui se passe dans les coulisses et les choix opérés. Par ailleurs, je regarde plutôt les « power users », les pionniers, car je m’intéresse aux premiers pas d’une innovation. Ces catégories d’utilisateurs sont en général très entreprenantes pour trouver des bugs et en faire état aux développeurs, qui sont demandeurs. Généralement, il s’agit aussi d’utilisateurs ayant une compétence technique supérieure à la moyenne.
Est-ce que ce sont ces utilisateurs qui font évoluer les services ?
Oui, c’est souvent le cas, par exemple en faisant état des bugs, les ingénieurs peuvent se servir de ces retours pour améliorer les outils.
C’est finalement ce qu’on a observé le plus largement dans l’histoire du développement d’Internet : là où cela se passe le mieux, c’est lorsqu’il y a une dynamique spontanée de personnes qui se sont rassemblées autour d’une innovation. Par exemple, un projet de recherche engendre un souhait de commercialisation, qui entraîne l’apparition de nouveaux utilisateurs apportant leur regard et parfois des innovations ultérieures, puis le régulateur apparaît.
Dans les cas où c’est trop organisé en top-down, cela ne fonctionne pas forcément.
Comment voyez-vous le rôle de l’information en ligne dans l’avenir ?
Il y a plusieurs questions à prendre en compte : l’inégalité des accès et la préservation de la neutralité du réseau pour réduire les discriminations.
La notion de la neutralité du net a récemment connu une variation, celle de la « neutralité des plateformes » : on reconnaît que des acteurs sont dominants et qu’ils engendrent une circulation de l’information particulièrement centrée autour d’eux-mêmes, ce qui détermine le besoin de nouveaux « garde-fous ».
Avec l’arrivée massive des objets connectés, les histoires d’accès vont encore se complexifier, car les personnes et les choses reliées à Internet vont se multiplier de manière exponentielle et il faudra gérer cela d’une façon qui permette à la non-discrimination d’exister encore.
Dans l’histoire, d’autres techniques ont-elles suscité ces problématiques ? La mise en œuvre et l’appropriation d’une technique est-elle plus aisée à partir d’un développement horizontal ?
C’est très complexe. Cela fait 10 ans que je regarde des dispositifs alternatifs et décentralisés, et je n’ai pas de réponse définitive.
Dans des situations spécifiques, la centralisation peut représenter le choix optimal pour des individus, si on souhaite une performance plus efficace, pour recevoir des contenus d’une machine puissante, ou se reposer sur un acteur « puissant » et qu’on estime responsable. La décentralisation peut à son tour être une très bonne solution dans d’autres cas, mais c’est un choix, avec des avantages et inconvénients, et pas un bien absolu qui va de soi. C’est une histoire de compromis, d’épreuves, de responsabilité distribuée entre les utilisateurs. On n’est pas à l’abri du problème lié aux passagers clandestins. Donc l’horizontalité peut également avoir ses complications.
La décentralisation fonctionne bien lorsqu’il y a une technique qui arrive à être suffisamment confortable pour les utilisateurs. Mais cela ne suffit pas, il faut qu’il y ait un contexte sociopolitique qui demande cette alternative décentralisée. Exemple : le bitcoin, né comme réseau symétrique et décentralisé, a surgi lors de la crise financière. Beaucoup de gens ne supportaient plus la finance, ses autorités centrales, et c’est ce contexte qui a permis l’arrivée d’un système alternatif à succès.
- Signaler (du drapeau « flag » en anglais, qui sert à signaler des contenus inappropriés sur de nombreuses plateformes).