Nul besoin d’un complot mondial pour nous manipuler. Les algorithmes de recommandations des géants du web se chargent avec brio de nous exposer à des contenus choisis pour que nous en consommions toujours plus: près des trois quarts des contenus visionnés sur YouTube sont des vidéos suggérées! Parmi leurs outils, les «dark pattern», que l’on peut traduire par «chemins obscurs» (le plus littéralement) ou «interface truquée» (au Québec). Il s’agit d’armes machiavéliquement conçues pour exploiter les failles de notre cognition…
« Sur YouTube, le premier dark pattern utilisé, c’est le fil infini de vidéos, explique Séverine Erhel, maître de conférences en psychologie cognitive et ergonomie à l’université Rennes-II. Il faut une action de l’utilisateur pour entraver le processus que met en place l’algorithme, sinon les vidéos défilent sans s’arrêter.»Absorbé par le flux d’images, l’utilisateur va être réticent à le stopper. D’autant que se met en place un phénomène nommé «escompte hyperbolique» : «Notre perception du temps et des récompenses futures est altérée et on est toujours à la recherche d’un contenu meilleur que le précédent.»
L’objectif principal est de nous maintenir le plus longtemps possible sur la plateforme.
Séverine Erhel, maître de conférences en psychologie cognitive et ergonomie à l’université Rennes-II
Partie titiller l’algorithme de YouTube en visionnant des vidéos de la mouvance complotiste QAnon*, la chercheuse a noté « deux caractéristiques du fonctionnement de l’algorithme qui sont apparues très vite. Au fil des visionnages, YouTube a tendance à proposer des contenus de plus en plus longs et de plus en plus populaires. L’objectif principal est de nous maintenir le plus longtemps possible sur la plateforme.» Et les vidéos les plus populaires sont rarement des analyses critiques et détaillées, mais plutôt des contenus très émotionnels, fourmillant d’affirmations peu étayées. «Progressivement, l’algorithme me faisait dériver dans une bulle de plus en plus radicale», raconte la chercheuse. «Ces vidéos nous mettent dans un état qu’on pourrait rapprocher de ce qu’on nomme en psychologie cognitive le “flow”, un état de conscience modifié et intense où toute notre attention et notre concentration sont en pilote automatique sur une tâche précise. On ressent un fort sentiment de contrôle, une absence de préoccupation du soi et de distraction, une altération de la perception du temps. C’est une expérience que l’on qualifie d’autotélique, c’est-à-dire quelle est très gratifiante. Cela explique assez bien notre impuissance face à ce tunnel attentionnel.»
Pour autant, «si l’algorithme a une part de responsabilité, l’agent au départ de la recherche n’est autre que nous-même. Et cela fait intervenir un biais cognitif bien connu: le biais de confirmation», qui nous fait préférer les informations correspondant à ce que l’on croit déjà. Or ce biais possède une composante éminemment sociale et interindividuelle. «Les hypothèses sur lesquelles on cherche des informations sont rarement des hypothèses auxquelles on adhère tout seul, explique Olivier Klein, professeur en psychologie sociale à l’université de Bruxelles. Il s’installe alors facilement un cercle vicieux où toute une série de personnes cherchent à confirmer la même hypothèse en cliquant sur les mêmes articles ou vidéos. In fine, ce sont ces derniers qui deviendront populaires et qui seront recommandés par les algorithmes.»
Or «plus on est exposé régulièrement à une information quelconque, plus on va avoir tendance à la considérer comme vraie et positive. C’est en partie sur ce biais que repose le modèle publicitaire», met en garde Séverine Erhel. Ajoutez-y l’illusion de contrôle: «L’humain déteste l’incertitude et tente toujours de la réduire. Face à la maladie par exemple, il va être très difficile de ne pas croire quelqu’un promettant qu’on peut tout gérer grâce à son mode de vie. L’illusion de contrôle est très puissante en cela qu’elle est gratifiante pour l’individu. Il se sent maître de son existence.»
«Des solutions timides»
Faute de pouvoir extirper l’homme de ses biais cognitifs, certains réfléchissent à des algorithmes de recommandations plus «éthiques». «Des solutions très timides commencent à émerger. Par exemple, depuis peu Twitter conseille aux utilisateurs de lire un article avant de le retweeter , indique Séverine Erhel. Sur YouTube, c’est malheureusement plus délicat étant donné que l’individu est aux commandes de la recherche de départ. Il n’y a aucune solution simple et révolutionnaire.» D’autant qu’il n’est pas dans l’intérêt des firmes de nous inciter à moins cliquer. «Il y a eu des propositions faites par la Commission européenne pour rendre les algorithmes plus transparents, qu’on puisse savoir pourquoi une information nous est proposée, glisse Olivier Klein. Il faut plus de sensibilisation au fait que ces algorithmes existent et déterminent ce à quoi nous sommes exposés. Mais cela ne réglera pas le problème de l’exposition, qui influence notre jugement même si on sait l’information peu fiable ou pertinemment fausse.»
*Selon la théorie de cette mouvance protéiforme, très populaire aux États-Unis, Donald Trump mènerait une guerre secrète contre des élites pédophiles et sataniques implantées dans les milieux politique, médiatique et financier.