Logo Zéphyrnet

YouTube adore recommander des vidéos conservatrices, quelles que soient vos convictions

Date :

L’algorithme de recommandation de YouTube non seulement piège doucement les téléspectateurs dans de légères chambres d’écho, mais il est plus susceptible de suggérer des vidéos à tendance conservatrice, quel que soit votre alignement politique.

C'est selon un étude du Centre pour les médias sociaux et la politique (CSMP) de l’Université de New York, souligné ce mois-ci par Brookings.

Les réseaux sociaux vivent et meurent grâce à leurs algorithmes de recommandation : ils sont conçus pour garder les visiteurs sur les sites et les applications en leur fournissant du contenu qui les maintient en haleine, et si cela stimule l'engagement : partager des liens avec d'autres, commenter, s'abonner, voter, etc. - Tout le meilleur. Les contenus controversés ou époustouflants sont parfaits pour cela, car ils sont susceptibles de susciter davantage de partages et de commentaires, et ainsi de rendre plus de personnes accros.

Ces flux sont ainsi personnalisés à chaque internaute en fonction de ses centres d'intérêt ; c’est essentiel pour les attirer et les enfermer. Des chambres d’écho se forment où les gens publient et partagent des choses pour lesquelles ils ont un intérêt commun, et ignorent tout ce qui est contraire à ces principes et attitudes. Cela conduit à une boucle de rétroaction positive sur l’engagement au sein du groupe, renforçant les convictions et augmentant le temps – et les vues des publicités – au sein de l’application ou du site Web.

Voici quelques questions. Dans quelle mesure ces algorithmes de recommandation alimentent-ils ces chambres d’écho ? Les algorithmes poussent-ils les utilisateurs vers des voies idéologiques de plus en plus étroites, radicalisant les internautes à mesure qu’ils s’enfoncent plus profondément dans le terrier du lapin en ligne ? Les logiciels peuvent-ils inciter les gens à l’extrémisme ? Y a-t-il un biais systémique dans les recommandations ?

To tackle this subject, a team of researchers at CSMP studied the effects of YouTube recommendations by getting 1,063 people to install a browser extension that kept tabs on their experience browsing the Google-owned website.

Cela pousse les utilisateurs vers des gammes de contenu idéologiques de plus en plus étroites, dans ce que nous pourrions appeler la preuve d'une (très) douce chambre d'écho idéologique.

Les participants ont été invités à sélectionner une vidéo YouTube de départ sur 25, composée d'un mélange de contenus politiques et non politiques, puis à suivre un parcours défini à travers les vidéos que YouTube leur a recommandé de regarder ensuite.

The netizens were told to always click on either the first, second, third, fourth, or fifth recommendation each time; the recommendation slot was chosen at random from the start. This traversal through YouTube’s suggested videos was repeated 20 times by each participant, over a period from October to December 2020.

The extension logged which videos YouTube recommended at every stage, and thus the videos that were watched. The team scored the ideological view of each vid, based on whether it was more conservative or liberal-leaning, to measure the effect of echo chambers and any latent bias in the system, and to see if viewers were being recommended increasingly more extreme content. How that ideological score was determined is kinda crucial to this, so we’ll trust for a moment that it’s robust.

"Nous avons constaté que l'algorithme de recommandation de YouTube ne conduit pas la grande majorité des utilisateurs dans des terriers extrémistes, bien qu'il pousse les utilisateurs vers des gammes idéologiques de plus en plus étroites dans ce que nous pourrions appeler la preuve d'une (très) légère chambre d'écho idéologique", a déclaré le rapport. universitaires divulgués dans un rapport pour la Brookings Institution.

L'algorithme tire les utilisateurs légèrement à droite du spectre politique

"Nous constatons également qu'en moyenne, l'algorithme de recommandation de YouTube attire les utilisateurs légèrement à droite du spectre politique, ce qui, selon nous, est une découverte nouvelle."

Le résumé de leur article indique clairement que ce déplacement vers la droite se produit « quelle que soit l’idéologie » des téléspectateurs de YouTube.

The study found that users were nudged into watching more right or left-wing media, depending on their starting point. YouTube recommendations diverged slightly off to the right for conservatives and left for progressives. This change in ideological strength of the recommendations started small and increased the longer the viewer followed the algorithm’s recommendations. In other words, if you (for example) watched what was deemed to be moderately left material, over time, your recommendations will drift more left, but only very slightly and gradually, according to this study.

Mild ideological echo chambers thus exist on YouTube, the researchers argued. But there seems to be little to no evidence that viewers are put on a fast track to more ideologically extreme content.

That may be at odds with your own experience, as sometimes it feels you can see how people are pulled down into rabbit holes. One starts off with a clip of a harmless talk show host, next they are steered to watch a bit by a moderate comedian, then they find themselves watching a conversation from an alternative podcaster, then they’re getting life advice from a questionable academic, then it’s fringe principles by another influencer, and before long, they’re watching someone skirting YouTube’s rules on hate speech. Or maybe the study’s right and it isn’t the recommendation engine driving this.

What is more interesting, perhaps, is that YouTube seems to be more likely to overall lean toward recommending moderately conservative-leaning content to users regardless of their political orientation.

L’équipe ne sait pas vraiment pourquoi. « Même si nos données nous permettent d’isoler le rôle joué par l’algorithme de recommandation, nous ne sommes pas en mesure de regarder à l’intérieur de la boîte noire. Sans cette clarté, nous ne pouvons pas déterminer si l’algorithme fonctionne avec plus de force pour les conservateurs parce qu’ils sont plus exigeants en matière de contenu idéologiquement conforme que les libéraux, ou pour une autre raison », ont-ils écrit dans le journal.

It may be that right-wingers are more likely to consistently watch right-wing content and left-wingers are more likely to view more diverse content – stuff they agree with and things they rage-share – or that there are simply more conservative videos than liberal ones on YouTube.

Un effet similaire a également été observé sur Twitter. Son algorithme de recommandation a tendance à booster les publications davantage de la part des hommes politiques et des médias de droite que de ceux de gauche. Des politologues de la même équipe à NYU précédemment commenté que c'est peut-être parce que le contenu conservateur est plus susceptible de générer plus d'indignation et, par conséquent, de conduire à plus d'engagement.

Soit dit en passant, nous avons également noté précédemment que le fait que les opinions de droite soient systématiquement injustement censurées ou cachées sur Internet par les grandes technologies est un sujet de discussion conservateur. Cela peut être dû au fait que la communication politique conservatrice est considérée et signalée comme de la désinformation. plus souvent que les messages de l’opposition.

Personne chez YouTube ou Google n’a été en mesure de répondre aux conclusions de l’étude CSMP. ®

spot_img

Dernières informations

spot_img