Au cœur de la diffusion des fausses nouvelles, les algorithmes utilisés par les sites web et les réseaux sociaux mettent trop souvent en avant des informations fausses ou manipulées, avec de lourdes conséquences.
Quel rôle jouent les algorithmes?
Ces programmes informatiques, chargés de prendre des décisions tout seuls, occupent une place essentielle mais invisible. Ils cherchent des liens imperceptibles dans de gigantesques masses de données qui leur permettent de gérer des transactions financières, de personnaliser le coût d’une assurance ou de réaliser des diagnostics médicaux.
Dans les médias et sur les réseaux sociaux, ils classent les résultats sur les moteurs de recherche, gèrent le fil d’actualité de Facebook, censurent des contenus indésirables (racisme, pornographie, violence…), recommandent des vidéos ou des articles.
Des tâches complexes, parfois sensibles, sont ainsi déléguées à ces systèmes de plus en plus autonomes, des « boîtes noires » qui développent leur intelligence artificielle grâce aux données.
Une vision biaisée du monde?
« Les algorithmes peuvent nous guider à travers la masse d’informations disponible sur internet », soulignait en juin Margrethe Vestager, la commissaire européenne à la concurrence. Mais « le risque est qu’on voie uniquement ce que ces programmes – et les entreprises qui les utilisent – choisissent de nous montrer », remarque-t-elle.
En réorganisant les contenus en ligne, les algorithmes créent ce qu’on appelle des « bulles de filtres » où les opinions divergentes disparaissent.
Pendant les élections américaines de 2016, Facebook a été accusé de favoriser la candidature de Donald Trump en laissant circuler de fausses informations militantes, souvent anti-Clinton, enfermant ses sympathisants dans un univers où tout le monde pense comme eux.
Les algorithmes ont aussi tendance à rendre les opinions extrêmes « plus visibles que jamais », selon Lorena Jaume-Palasi, fondatrice de l’ONG Algorithm Watch. Cependant, leurs effets sur l’opinion des lecteurs sont difficiles à mesurer, nuance-t-elle: on ne peut attribuer par exemple aux seuls algorithmes la montée des nationalismes en Europe.
Propagation des fausses nouvelles?
Les algorithmes des réseaux sociaux ont pour mission principale de faire circuler les contenus les plus appréciés, sans juger de leur véracité. Ils peuvent donc amplifier largement la diffusion de fausses nouvelles.
Sur YouTube notamment, les milliers de vidéos défendant des thèses complotistes sont beaucoup plus « recommandées » que les contenus vérifiés, selon Guillaume Chaslot, un ex-ingénieur de la plateforme. Ces contenus polémiques, avançant par exemple que l’exploration de la lune ou le réchauffement climatique sont des mensonges, font réagir les internautes et retiennent davantage leur attention. Ceux-ci passent alors plus de temps sur la plateforme et les médias traditionnels sont décrédibilisés, estime Guillaume Chaslot.
Des algorithmes plus éthiques?
Pour plusieurs observateurs, les algorithmes peuvent être reprogrammés « au service de la liberté humaine ».
Les ONG réclament avant tout plus de transparence. « Ces entreprises devraient pouvoir faire contrôler leurs produits (leurs codes), sans forcément révéler leurs formules », comme on le fait pour Coca-Cola, souligne Lorena Jaume-Palasi.
La commission française chargée de la protection de la vie privée, la Cnil, a recommandé fin 2017 un contrôle étatique des algorithmes mais aussi une vraie éducation de leurs utilisateurs qui devrait « permettre à chaque humain de comprendre les ressorts de la machine ».
Le nouveau règlement européen sur la protection des données aborde également la question des algorithmes en général: on peut désormais contester la décision d’un algorithme et « obtenir une intervention humaine » en cas de conflit.
Les grandes plateformes du web ont commencé à prendre des mesures ces derniers mois: Facebook cherche à repérer et labelliser automatiquement les nouvelles douteuses, tandis que YouTube a renforcé le contrôle humain des vidéos qu’il diffuse pour les enfants.
Des « repentis » de la Silicon Valley, réunis dans l’ONG Center for humane technology, affirment cependant que l’on ne peut pas attendre que le changement vienne d’entreprises qui reposent sur +l’économie de l’attention+ comme YouTube, Facebook, Snapchat, ou Twitter car « cela va à l’encontre de leur modèle économique ».
Le Quotidien / AFP