L’algorithme de YouTube, régulièrement accusé de promouvoir des contenus néfastes, se base plus sur les mots-clés accolés à une vidéo que sur son succès pour la recommander, selon une étude du CSA présentée mardi.
YouTube, propriété de Google, est toujours resté mystérieux sur les réglages de son algorithme, en évolution constante, ne révélant jamais précisément le rôle joué par les différentes mesures (temps passé sur la vidéo, temps de session, nombre de vues ou de « likes ») dans le moteur de recommandation.
La plateforme, qui affiche un milliard d’heures de visionnage par jour, ne communique aucun chiffre non plus sur la part de visionnages issus des recommandations, par rapport aux vidéos cherchées directement par les utilisateurs. Le CSA s’interroge dans l’étude sur la « diversité de points de vue » proposée dans les sélections des algorithmes. Le Conseil, qui devrait bientôt obtenir un pouvoir de sanction sur les plateformes dans le cadre de la réforme de l’audiovisuel, a réitéré une expérience déjà menée par des youtubeurs, chercheurs et médias, en se concentrant sur les opinions véhiculées par les vidéos.
42 utilisateurs-témoins ont lancé des vidéos sur 23 sujets « susceptibles de susciter des clivages » comme la corrida, la laïcité, la drague de rue, le véganisme ou la mort de Michael Jackson. Les 10 vidéos recommandées successivement par YouTube ont ensuite été analysées.
Dynamisme de communautés aussi
Résultat : dans ses premières recommandations, « l’algorithme semble accorder moins d’importance au nombre de vues, à la date de publication ou encore au nombre de réactions qu’aux mots-clés associés au thème de départ des vidéos », explique le CSA. Le dynamisme de communautés mobilisées sur certaines questions de société (dans les commentaires notamment) semble également « jouer un rôle central » dans la visibilité de ces vidéos.
Par ailleurs, plus d’un tiers des vidéos recommandées « expriment le même point de vue que la vidéo de départ », au risque de produire un phénomène dit de « chambre d’écho », souligne le CSA. Au fil des recommandations, 44 % des vidéos proposés par la lecture automatique vont dans le même sens que la vidéo directement précédente. L’expérience a également mis en lumière un « pivot », la troisième vidéo proposée en lecture automatique, après laquelle « l’algorithme semble définitivement dévier du thème de départ ». Le robot recommande alors « des vidéos de plus en plus populaires (nombre de vues) et de plus en plus récentes », souligne le CSA.
AFP