S’assurer que Youtube reste une « plateforme ouverte » tout en limitant la visibilité des vidéos controversées ou néfastes : critiquée depuis des années, Youtube, filiale de Google, défend auprès de l’AFP ses récentes mesures pour endiguer ces contenus.
« Deux milliards d’utilisateurs viennent sur Youtube chaque mois, donc nous devons prendre nos responsabilités de façon extrêmement sérieuse », a expliqué Neal Mohan, n°2 de Youtube lors d’un entretien. En 14 ans, la plateforme video est devenue « une grande ville » et « des personnes malveillantes » sont arrivées, a-t-il reconnu. « Nous avons besoin de nouvelles règles, de lois et d’une sorte de régulation ».
« Nous prenons toutes les mesures nécessaires pour protéger l’écosystème de YouTube, quel que soit l’impact sur nos revenus », a déclaré jeudi le PDG de Google Sundar Pichai, alors que l’entreprise risque de se voir infliger une amende par l’agence américaine de protection des consommateurs (FTC) pour ne pas avoir suffisamment protégé les enfants sur Youtube. « Mais il faut bien noter que retirer les contenus contraires à nos règles, cela n’a aucune conséquence pour les revenus de YouTube », a t-il poursuivi.
La maison mère Alphabet a annoncé le même jour un bénéfice net de près de 10 milliards de dollars au deuxième trimestre. En juin, Facebook, qui fait face aux mêmes critiques sur la diffusion de contenus toxiques, violents et de fausses informations, avait demandé aux pouvoirs publics de jouer un « rôle plus actif » pour réguler internet.
Une réaction trop tardive ?
« Je pense que c’est d’abord et avant tout de notre responsabilité », juge à l’inverse Neal Mohan. « Bien sûr, nous allons travailler avec les gouvernements, mais nous voulons aussi travailler dans un sens plus universel ».
Google a mis à jour en juin le règlement interne de la plateforme concernant les discours haineux qui interdit les vidéos présentant un groupe humain comme supérieur et justifiant la discrimination des autres ainsi que les contenus négationistes. « Nous devons nous adapter pour faire en sorte que la diffusion de fausses nouvelles, de désinformation, ne devienne pas endémique sur notre plateforme », a estimé Neal Mohan.
Cette réaction n’est-elle pas trop tardive ? Youtube diffuse aujourd’hui un milliard d’heures de visionnage par jour. Si le contenu controversé représente moins de 1% de la consommation de vidéos, comme l’assure Neal Mohan, cela équivaut tout de même à 10 millions d’heures chaque jour.
« Vous ne pouvez pas écrire un règlement contre les discours haineux en un week-end sans vous exposer à des conséquences inattendues », répond le dirigeant. « Nous avons consulté des experts dans le monde entier et avec toutes sortes d’orientations politiques, puis nous en avons fait la synthèse pour trouver un langage commun que nous pouvons ensuite faire appliquer par 10 000 modérateurs et par des algorithmes. Les discours de haine ne sont qu’un exemple. Nous le faisons également pour le harcèlement, les blagues dangereuses, les abus en tous genres, la fraude et la sécurité des enfants », a-t-il noté.
Rester une plateforme ouverte
Reste le problème des contenus néfastes qui flirtent avec le règlement et que l’algorithme de recommandation de Youtube est régulièrement accusé de promouvoir. Si la vidéo n’enfreint pas les règles, alors il ne faut pas la supprimer : Neil Mohan souhaite que Youtube « reste une plateforme ouverte car c’est de là que vient une grande partie de sa magie ». « Cela dit, nous ne sommes pas dans l’obligation de recommander tout le contenu de la même manière », a-t-il souligné, dans une référence à l’annonce, début janvier, de la réduction des recommandations de contenus considérés comme à la limite de l’acceptable. Le système d’évaluation des vidéos n’est pour l’instant actif qu’aux Etats-Unis. « J’espère l’amener en France dans les prochains mois », a assuré Neal Mohan.
Selon Youtube et d’autres sources, les recommandations de contenus « limites » aux Etats-Unis ont diminué de moitié grâce à ce système mais les chiffres précis ne sont pas communiqués. La troisième partie du plan de Youtube consiste à discriminer positivement les contenus provenant de « sources faisant autorité », en partie sélectionnées par Google. Cette méthode qui ne conduit pas à supprimer des vidéos a l’intérêt de ne pas restreindre le potentiel de « vues » réalisées sur la plateforme.
LQ/AFP