Vous appréciez ce site?
Faites-le-moi savoir!
Rubriques

Publié le 20 Mar, 2015 dans Science du contrôle

Comment savoir si on nous manipule? L’exemple de Facebook et Google

(Source : Le Monde)

manipulation-opinion-reseaux-sociaux-google

Quelqu’un qui sait des choses sur nous a un certain degré de contrôle sur nous, et quelqu’un qui sait tout de nous a beaucoup de contrôle sur nous. La surveillance facilite le contrôle.

book-dg2-175wNous avons souvent évoqué ici les propos de Bruce Schneier (@schneierblog), ce spécialiste de la sécurité. Il vient de faire paraître un livre intitulé Données et Goliath : la bataille cachée pour collecter vos données et contrôler le monde, dont Ars Technica vient de publier un extrait. Un extrait particulièrement limpide qui pointe le lien entre surveillance et manipulation de l’opinion et qui lève le voile sur le danger qu’il y a à laisser nos informations dans les mains d’une poignée de grandes entreprises.

« La manipulation n’implique pas la publicité manifeste. Elle peut ressembler à un placement de produit qui permet de s’assurer que vous voyez des images avec une certaine marque de voiture à l’arrière-plan. Ou juste influer sur le nombre de fois ou vous voyez ces voitures. C’est là, en substance, le modèle d’affaires des moteurs de recherche. Dans leurs premiers jours, on a évoqué la façon dont un annonceur pouvait payer pour obtenir un meilleur placement dans les résultats de recherche. Après les protestations du public et les décisions ultérieures de la FTC, les moteurs de recherches ont du différencier les résultats “naturels” de leurs algorithmes des résultats payés. Cela fait, les résultats payés sur Google ont été encadrés encadrés de jaunes, ceux de Bing en bleu pâle. Cela a fonctionné pendant un certain temps, mais assez récemment, cette tendance a fait machine arrière. Google accepte désormais de l’argent pour insérer des URL particulières dans les résultats de recherche et pas seulement dans les cadres publicitaires dédiés. Nous ne connaissons pas l’étendue de ce programme, mais ce changement semble suffisant pour que la FTC y porte intérêt. »

« Lorsque vous faites défiler votre flux Facebook, vous ne voyez pas tous les articles de chacun de vos amis. Ce que vous voyez a été sélectionné par un algorithme automatisé qui n’est pas rendu public. Mais quelqu’un peut payer pour augmenter la probabilité que ses amis ou fans voient ses messages. Ces sociétés qui paient pour placer leurs informations expliquent en grande partie de la façon dont Facebook fait de l’argent. De même, la plupart des liens vers des articles recommandés au bas de chaque publication sont payés par ce placement. »

« Le potentiel de manipulation, ici, est énorme », explique Schneier avant de prendre un exemple parlant. « Lors de l’élection américaine de 2012, les utilisateurs de Facebook ont eu l’occasion d’afficher une icône “J’ai voté”, un peu comme les vrais autocollants que beaucoup d’entre nous obtiennent sur les lieux de vote après avoir voté. Ce badge produit un effet d’entraînement à voter plutôt documenté : vous êtes plus susceptibles de voter si vous pensez que vos amis votent aussi. Cette manipulation a eu pour effet d’augmenter le taux de participation de 0,4% au niveau national. » Un résultat qui est loin d’être anodin.« Mais maintenant, imaginez que Facebook ait manipulé la visibilité du badge “J’ai voté” sur la base soit de votre appartenance à un parti politique, soit sur celle d’un critères proche de celui-ci, comme votre code postal, les blogs que vous lisez, les liens que vous appréciez… Il ne l’a pas fait, mais s’il l’avait fait, cela aurait eu pour effet d’augmenter le taux de participation dans une direction », pouvant conduire à faire plus voter certains que d’autres… Si Facebook l’avait fait, cela serait difficile à détecter, mais cela ne serait pas illégal, assène Schneier. « Facebook pourrait facilement faire basculer une élection serrée en manipulant sélectivement les messages que ses utilisateurs voient. Google pourrait faire quelque chose de similaire depuis ses résultats de recherche. »

Une plateforme de médias sociaux pourrait ainsi manipuler l’opinion publique encore plus efficacement, explique Schneier. « En amplifiant les voix des gens avec lesquels elle est d’accord et en amoindrissant la parole des personnes avec lesquels elle est en désaccord. Elle pourrait par la même profondément fausser le débat public. La Chine ne fait pas autre chose avec son parti des 50 Cents : ces personnes embauchées par le gouvernement pour poster des commentaires sur les réseaux sociaux et contester les commentaires contraires aux positions des partis. »

« Beaucoup d’entreprises manipulent ce que vous voyez en fonction de votre profil d’utilisateur : Google Search, Yahoo! News et même des journaux en ligne comme le New York Times. C’est un gros problème. Le premier résultat dans une page de résultat de Google obtient un tiers de clics et si vous n’êtes pas sur la première page, c’est presque comme si vous n’existiez pas. La conclusion est que l’Internet que vous voyez est surtout adapté aux intérêts que votre profil indique. Cela nous a conduit dans ce que le militant politique Eli Pariser a appelé la “bulle de filtre” : un Internet optimisé sur vos préférences, où vous pourriez ne jamais rencontrer une opinion qui vous déplaît. Vous pourriez penser que ce n’est pas si mauvais, mais à une très grande échelle, ce phénomène est profondément nuisible. Nous ne voulons pas vivre dans une société où tout le monde ne lit que des choses qui renforcent leurs propres opinions, où nous ne ferions jamais de rencontres spontanées qui nous animent, nous confondent, nous confrontent et nous instruisent. »

En 2012, Facebook a fait une autre expérience, rappelle Schneier. « La société a manipulé sélectivement les fils d’actualité de 680 000 utilisateurs en leur montrant des informations tristes ou joyeuses. Comme Facebook surveille en permanence ses utilisateurs – c’est ainsi qu’il converti ses utilisateurs en revenus publicitaires – il était facile de surveiller ces sujets expérimentaux et de recueillir les résultats. Facebook a constaté que les gens qui ont les messages les plus joyeux avaient tendance à écrire des messages plus joyeux et vice versa. Je ne veux pas en faire trop sur cette expérimentation. Facebook n’a fait ce test que pendant une semaine et l’effet était limité. Mais une fois que des sites comme Facebook auront compris comment le faire plus efficacement, les effets seront rentables. Non seulement les femmes se sentent moins attirantes le lundi, mais elles se sentent également moins attirantes quand elles se sentent seules, grosses ou déprimées. Nous voyons déjà fleurir des débuts de systèmes qui analysent les propos de chacun et le langage des corps pour déterminer leur humeur. Les entreprises veulent savoir quand les clients sont déprimés et quand on peut leur faire des offres auxquelles ils seront plus réceptifs. Manipuler des émotions pour mieux vendre des produits est le genre de chose qui semble acceptable dans le monde de la publicité, même si cela paraît assez horrible à la plupart d’entre nous. »

« Toute cette manipulation est rendue plus facile par l’architecture centralisée de la plupart de nos systèmes techniques. Des entreprises comme Google ou Facebook sont assises au centre de nos communications. Cela leur donne un énorme pouvoir de manipulation et de contrôle. »

« Les méfaits découlant de l’utilisation des données de surveillance en politique sont nombreux. La politique électorale est devenue une forme de marketing et les politiciens commencent à utiliser le marketing personnalisé pour distinguer les habitudes de vote et mieux vendre et cibler les positions d’un candidat ou d’un parti. Désormais, les candidats ou les groupes organisés peuvent créer des annonces ou gérer des appels de fonds ciblés à des catégories particulières : les gens qui gagnent plus de 100 000 dollars par an, les propriétaires d’armes à feux, les gens qui ont lu tels articles de presse avec telle position, les anciens combattants chômeurs… n’importe quel groupe auquel vous pouvez penser en fait. Ils peuvent cibler certaines publicités à certains groupes de personnes et les améliorer d’un groupe à l’autre. Ils peuvent également affiner leur campagnes à la volée et les segmenter selon les localités entre les élections. Et cela aura certainement à l’avenir des effets fondamentaux sur la démocratie et nos manières de voter. »

« La manipulation psychologique – basée à la fois sur l’information personnelle et le contrôle des systèmes sous-jacents – ne va pas cesser de s’améliorer. Pire, elle risque de devenir si performante que nous ne pourrons plus savoir si nous sommes manipulés. »

Commentaire :
La grande majorité ne sait même pas qu’elle est manipulée. Encore une fois, pourquoi parler d’un proche futur incertain alors que nous nageons, présentement, quotidiennement dedans? L’auteur de ce livre ne le sait-il pas? Beau paradoxe. 

Toute la question est de savoir comment nous allons protéger nos démocraties…

Commentaire :
Euh… Quelles démocraties, exactement?

…et nos systèmes politiques de la manipulation algorithmique ?

Par Hubert Guillaud

Commentaire :
Il est déjà trop tard, M. Guillaud. Désolé, vous arrivez vous aussi en retard.

Partager cet article :