Le CSA et l’Hadopi sont devenus l’Arcom, rendez-vous sur arcom.fr Le CSA et l’Hadopi sont devenus l’Arcom, rendez-vous sur arcom.fr

Plateformes numériques

Pourquoi et comment le CSA a réalisé une étude sur l’un des algorithmes de recommandations de YouTube

Publié le

Le Conseil supérieur de l’audiovisuel (CSA) a mené une étude sur l’un des algorithmes de recommandation de YouTube. Explications.

Micro-trottoir (réalisé par le CSA)


Hélène Gilles, Chargée de mission au CSA


Le Conseil supérieur de l’audiovisuel (CSA) a mené une étude sur l’un des algorithmes de recommandation de YouTube. Explications





Lors d’un dîner entre amis, un sujet fait débat : « Faut-il arrêter ou non de manger de la viande ? ». L’un des convives qui souhaite être informé sur le sujet effectue une recherche sur le moteur Google.

Résultat de la recherche : une vidéo YouTube est proposée « Qu’est-ce que le véganisme ? ». Clic. Ce premier contenu visionné, un compte à rebours s’enclenche et lance, automatiquement, une deuxième vidéo. Pause …

Quel sera le sujet, l’opinion développée, de cette vidéo lancée automatiquement par l’un des algorithmes de recommandation de YouTube ? Viande ou pas viande ? Bon pour la santé ou nocif ? Pour ou contre le véganisme …

Sur un sujet donné, les recommandations d’un algorithme offrent-elles une diversité de points de vue permettant de s’informer de manière équilibrée et honnête ?




La capacité des algorithmes à informer les citoyens de façon pluraliste pose question

Les réseaux sociaux agrègent de nombreux contenus à caractère informatif et proposent de nouveaux contenus à l’utilisateur. Les plateformes numériques suggèrent ces contenus en recourant à des algorithmes de recommandation dont la transparence des principes et du fonctionnement fait débat.

>>Consultez notre glossaire : Plateformes numériques

A l’heure de la lutte contre les propos haineux sur Internet et la manipulation de l’information, apparaît la nécessité d’observer le fonctionnement des algorithmes de recommandation des plateformes qui proposent aux citoyens français des contenus d’information. Le CSA a, conformément à ses missions, mené une étude inédite sur l‘algorithme de recommandation de la fonctionnalité « lecture automatique » de cette plateforme de partage de vidéos. Il a en outre placé cette étude dans une démarche d’échange avec YouTube.

Pourquoi YouTube ?

Parce que cette plateforme rend publiques un grand nombre de données qui facilitent la caractérisation des contenus. De plus, YouTube occupe une place majeure dans la consommation de contenus vidéo sur internet. Enfin, YouTube propose une offre diversifiée dans :

  • Les thématiques abordées ;
  • Les types d’éditeurs présents (chaînes de télévision, professionnels d’internet, vidéastes amateurs, etc.) ;
  • Les formats utilisés ;  
  • La durée des contenus.

Pourquoi observer la fonctionnalité de la « lecture automatique » des vidéos ?

YouTube dispose d’une fonctionnalité « de lecture automatique » qui s’appuie sur l’un de ses algorithmes de recommandation. Cette fonctionnalité enchaîne les vidéos sans intervention de l’utilisateur. Elle se rapproche ainsi de la diffusion linéaire en télévision. Ce sont les recommandations faites à partir de cette fonctionnalité qui ont été étudiées.

>> Lire la Foire aux questions sur l’étude : « Pourquoi avoir choisi la lecture automatique comme mode d’enchaînement des vidéos ? »

Comment l’étude du CSA a-t-elle été réalisée ?

Pour comprendre le fonctionnement de la lecture automatique du service YouTube, les vidéos recommandées ont été récoltées sur la base de l’approvisionnement par la foule ou « crowd sourcing ». Un panel d’utilisateurs de vidéos YouTube a donc été constitué et une collecte des données mises en place. Pour ce faire, le CSA a lancé un appel à participation auprès des agents du Conseil en juin 2018. 39 participants disposant d’un compte Google se sont déclarés volontaires. En plus de ces 39 participants, 4 profils fictifs ont été créés pour l’étude. L’historique de consommation de ces 4 profils a été créé ex nihilo. Ces profils fictifs ont permis d’apprécier l’adhérence des vidéos recommandées aux intérêts de l’utilisateur.

>> Lire la Foire aux questions sur l’étude : « L’échantillon de population de l’étude est-il représentatif de la population française ? »

Le CSA a sélectionnés 23 thèmes présentant un clivage d’opinion marqué. 39 007 vidéos recommandées ont été collectées.

Quelle transparence pour les plateformes de contenus ?

Cet enjeu est au cœur des préoccupations depuis plusieurs années. Le Conseil national du numérique (CNNum) a par exemple introduit, dans un avis rendu en 2014 sur la neutralité des plateformes, le principe général de loyauté des plateformes vis-à-vis des utilisateurs, qui implique une plus grande transparence du fonctionnement de leurs algorithmes.

>> Consultez notre glossaire : «  Définition : Algorithme »

La Commission nationale de l’informatique et des libertés (CNIL) s’est interrogée en 2017 de l’effet de la personnalisation algorithmique sur le pluralisme démocratique et culturel. Aujourd’hui, l’étude du CSA tente de déterminer si les internautes ont accès à une information aussi pluraliste que les téléspectateurs qui s’informent dans un environnement régulé .

>> Texte juridique : Recommandation n°2019-03 du 15 mai 2019 du CSA aux opérateurs de plateforme en ligne dans le cadre du devoir de coopération en matière de lutte contre la diffusion de fausses informations

Le CSA veille au pluralisme de l’information

Le CSA est le garant du respect du caractère pluraliste de l'expression des courants de pensée et d'opinion dans les médias audiovisuels. Pour répondre à cet objectif, le CSA s’assure que le principe déontologique de diversité de l’information, dans les opinions exposées, dans ses sources, dans son traitement et dans sa présentation, soit au cœur des processus d’éditorialisation des services qu’il régule.

>> Le CSA qu’est-ce que c’est ?

Les prérogatives du CSA élargies aux médias numériques

En 2016 puis en 2017, le CSA s’est intéressé au rôle des algorithmes dans le modèle économique des plateformes numériques et dans l’accès aux contenus audiovisuels. En outre, parmi ses 20 propositions pour une régulation audiovisuelle refondée rendues publiques en septembre 2018, le Conseil a préconisé une transparence et une loyauté accrues des algorithmes afin de favoriser la diversité culturelle et de diminuer le risque d’enfermement de l’utilisateur dans des choix prédéfinis. 

Aussi, l’Assemblée nationale a adopté, le 22 décembre 2018, la loi relative à la lutte contre la manipulation de l’information qui impose des obligations aux opérateurs de plateformes en ligne, en particulier, en matière de transparence des algorithmes. Elle confie notamment au CSA le contrôle de leur bonne application.

Enfin, au niveau européen, le rapport d’experts sur la désinformation mandatés par la Commission européenne considère que les plateformes doivent fournir aux utilisateurs toutes informations utiles sur le fonctionnement des algorithmes impliqués dans l’accès à l’information.

Dans ce contexte et alors qu’une régulation nouvelle se profile avec l’intégration de nouveaux acteurs dans le champ de la régulation, le CSA a souhaité, avec cette étude, engager une démarche novatrice, tant dans sa méthode que dans ses objectifs, et ainsi aider les citoyens à mieux appréhender la capacité des algorithmes à informer.

>> Tribune de Roch-Olivier Maistre, président du CSA : Point d’étape : vers un nouveau modèle de régulation des plateformes de contenus

Même si ces observations ne constituent pas des conclusions pouvant nécessairement être généralisées à l’ensemble des algorithmes, elles confirment le rôle central joué par les plateformes dans l’accès à l’information dès lors qu’elles disposent de fonctions d’ordonnancement et de recommandation de contenus. En particulier, la mise en lumière de phénomènes qui par certains aspects pourraient être assimilés à ceux dits de chambre d’écho, renforcés par l’individualisation des recommandations, peut interroger sur la capacité des algorithmes à proposer aux utilisateurs des contenus exprimant une diversité de points de vue.

En cohérence avec les initiatives en cours reposant pour la plupart sur des outils de corégulation, cette étude souligne la nécessité de renforcer, d’une part, l’éducation aux médias et, d’autre part, les relations entre les pouvoirs publics et les plateformes, afin d’améliorer la transparence des algorithmes et d’assurer aux utilisateurs une information claire sur les recommandations qui leur sont faites.

Présentation de l'étude (à Paris, mardi 12 novembre 2019)