ACCUEIL | FLUX RSS | APPLI ANDROID
Lundi 26 Juin 2017

TECHNOLOGIES - Publié le 19/09/2016 à 10:06


Comment Facebook filtre notre connaissance du monde?



Censure d'une photo historique, choix d'articles qui renforcent les partis pris: les centaines de millions d'internautes qui s'informent via leurs "amis" sur Facebook, plutôt que par les médias classiques, courent le risque d'une information biaisée, selon des experts.

Dernier exemple en date, la censure par Facebook la semaine dernière de la célèbre photo d'une petite Vietnamienne nue brûlée au napalm, prise par le photographe Nick Ut, au nom de sa politique contre la nudité des enfants. Critiqué dans le monde entier, le groupe américain a rétabli la photo et promis de tenir compte à l'avenir du "statut d’icône" des clichés historiques.

Cette polémique a révélé l'importance prise par Facebook comme source d'information pour une majorité d'internautes dans le monde.

Un sondage international du Reuters Institute montre que 51% des gens dans 26 pays s'informent par les réseaux sociaux, dont 44% par Facebook, et que 12% en ont fait leur première source d'information. En France, un Français sur deux consulte Facebook, surtout sur mobile, et peut y passer plusieurs heures par semaine.

Aucun des 1,7 milliard d'utilisateurs ne voit les mêmes informations dans son "newsfeed" (fil d'actualités), qui compile les messages de ses "amis": un mélange de commentaires personnels et d'articles partagés, provenant aussi bien de grands médias que de blogs inconnus.

Entre les milliers de messages produits par ses amis, impossible de tout lire: c'est l'algorithme de Facebook qui, pour chacun, classe ceux placés en haut de page. Et donc ceux qui seront vus, car en moyenne l'utilisateur ne lit que 200 des 2.000 messages de son fil.

Les utilisateurs ignorent le plus souvent l'existence et les critères de ce tri, qui ont changé sans cesse en 10 ans d'existence. En juin, Facebook a brusquement décidé de privilégier les messages personnels au détriment des partages d'articles, diminuant la place des médias classiques.

Outre la chronologie, l'ordre des posts est déterminé par trois critères clés, explique le réseau: les interactions avec l'auteur et ses posts précédents (nombre de "like", temps de lecture, ouverture des liens, commentaires, partages...), le type de médias (vidéos...) et la popularité du post auprès des autres utilisateurs.

Chaque fois qu'on consulte sa page Facebook, l'algorithme recalcule un "newsfeed" personnalisé: deux personnes ayant les mêmes 400 amis n'auront pas du tout le même fil.

Cet ordre personnalisé correspond à ce que les utilisateurs choisiraient en mode manuel, assure Facebook, études à l'appui. Le succès est là.

Sauf que Facebook peut censurer: les contenus contraires à sa charte (pornographie, nudité, violence...) signalés par des utilisateurs sont alors retirés -- œuvres d'art exceptées. Pour la pédophilie et la propagande terroriste, Facebook intervient de lui-même.

- 'Polarisation des contenus' -

Un pouvoir qui choque les milieux politiques et culturels. "Qui contrôle Facebook", ont demandé mardi dans une tribune publiée dans Le Monde Manuel Alduy (ex-directeur du cinéma de Canal+) et la députée PS Karine Berger. "Qui vérifie, et, le cas échéant, sanctionne le filtrage de nos expériences par le géant américain? Personne", dénoncent-ils, mettant en cause une "grille de valeurs morales".

Autre critique, une information sans hiérarchie et qui enferme les lecteurs dans leurs convictions.

"Beaucoup de gens consultent Facebook sans se rendre compte qu'ils s'informent comme cela. Et personne ne voit la même chose, alors que la page d'accueil du Monde est la même pour tous", relève Alice Antheaume, de l'Ecole de journalisme de Sciences-Po, qui souligne le manque de transparence de l'algorithme.

Son poids sur la façon dont on s'informe pourrait même jouer un rôle à l'approche des élections françaises ou américaines, a-t-elle averti.

"Nous avons constaté des confusions dans la hiérarchisation des sources d'information entre les médias et les blogs", renchérit Arnaud Mercier, professeur et spécialiste en communication.

"Nous avons aussi constaté une très forte polarisation des contenus recommandés par Facebook: en cliquant sur certains contenus, au bout de 8 jours, on ne reçoit plus que des articles" de la même tendance.

Soyez le premier à commenter cet article!

Laisser un commentaire


 Publicité 
 Top News 
Médicaments, l'invisible pollution de l'eau
Vers Alpha du Centaure à 60.000 km/s, le rêve d'un milliardaire russe
Mexique: l'homme le plus gros du monde en passe d'être opéré
Comment Facebook filtre notre connaissance du monde?
Espagne: un mort de la fièvre du Congo après une piqure de tique
A Marseille, l'agriculture urbaine prend ses quartiers Nord
Google installe de vrais clients dans ses voitures autonomes
Décès du mathématicien français Jean-Christophe Yoccoz, médaille Fields 1994
L'infection pulmonaire: un risque de dégradation chez les personnes âgées
Italie: un village de trompe-la-mort va révéler son secret
 Publicité 
 En image 
 Dernières réactions 
18/01/2016 - 17:34 - eric
Chez moi: ni bureau, ni papiers, aucune bureaucratie. ...
17/12/2015 - 15:37 - gilles
Je vois une erreur dans ce calcul. Car on ne ...
10/11/2015 - 20:51 - carole ferrer
DES PROMESSES JE N AI PLUS AUCUNE CONFIANCE DANS LES ...
17/03/2014 - 01:21 - Micha
Bordélique de nature je bosse nettement le jour dans l'année ...
03/03/2014 - 10:31 - didier
Se pourrait-il qu'inconsciemment on soit poussé à éternuer sans rien ...
 Publicité 


2011-2017 © Aux Frontières de la Science. Crédits photos: istockphoto. Page générée en 0.025 secondes. Blog d'actualités scientifiques réalisé par des passionnés.