NEWS
11/22/2016 16:06 EST | Updated 11/23/2017 00:12 EST

Robots en ligne : les maîtres des élections?

Dès leur apparition, les médias sociaux ont été associés à une agora démocratique. Les citoyens y discutent de sujets liés à des questions de société – entre autres, car on y trouve aussi beaucoups de photos de chats, bien sûr.

Par contre, parce que ces plateformes sont numériques, elles peuvent être manipulées par des robots (des programmes, en fait) difficilement détectables par les utilisateurs.

Une étude publiée juste avant les élections américaines a démontré combien les réseaux sociaux étaient infestés de robots en ligne, qui ont eu un effet négatif sur les conversations politiques dans les derniers mois de la campagne électorale américaine.

L’étude réalisée en septembre et en octobre 2016 sur le réseau Twitter révèle que 19 % du total des tweets et des retweets en lien avec l'élection provenaient de robots en ligne.

Le pouvoir des robots en ligne

Les données montrent que les robots n’influencent pas les utilisateurs directement (il y a eu peu d’interaction conversationnelle entre un robot et un humain), mais qu’ils le font à travers le partage (retweets).

Les robots choisissent parcimonieusement ce qu’ils retweetent. Et les humains retweetent les robots quand ces renseignements confirment leur opinion. Un biais humain, trop humain.

Donc, les robots n’influencent pas directement les humains : ils ne font que recommuniquer des renseignements que les humains sont prêts à croire.

Robots « pro-Trump »

Contre toute attente, les chercheurs ont découvert que les robots « pro-Trump » ont émis très peu de messages négatifs (des messages qui dénigrent l’autre candidat).

En effet, les deux tiers des 300 000 tweets positifs recensés dans l’étude proviennent de ces robots. Comme la campagne présidentielle américaine a été si acrimonieuse, on aurait pu penser le contraire.

Cette situation a eu des répercussions sur ceux qui ont été exposés à ces tweets positifs « pro-Trump ». Selon les chercheurs, elle pouvait leur faire croire que le candidat était porté par une grande base de supporteurs. Se pourrait-il que ces appuis complètement artificiels aient eu un effet d’entraînement chez certains électeurs portés à « voter dans le bon sens »?

Les chercheurs concluent que la présence de robots en ligne dans cette agora démocratique numérique crée un effet de distorsion dans la perception des conversations.

Le premier effet qu’ils craignent est une polarisation extrême des opinions. Le second est la diffusion des faux renseignements.

Ces deux points ont été les sujets chauds des dernières semaines dans les médias.

Identifions les robots

Rappelons que cette étude a été publiée peu de temps avant le 8 novembre 2016, jour de l’élection présidentielle aux États-Unis. Elle vient confirmer une longue série de recherches sur l’influence de la technologie dans la démocratie depuis la montée des médias sociaux. Elle ne devrait donc pas générer de surprise.

Que la question resurgisse aujourd’hui est légitime, mais elle devrait déboucher sur des solutions plutôt que s’arrêter sur des constats.

La première solution consisterait à demander aux plateformes de cesser de jouer un rôle passif dans cette mascarade. Leur modèle d’affaires est bien sûr basé sur les échanges d’informations, qu’elles soient vraies ou fausses. Cependant, les plateformes devraient aussi assumer un rôle plus sérieux dans la société.

La seconde solution serait de demander aux plateformes de commencer à identifier clairement quels comptes appartiennent à des robots – elles le font déjà avec les « comptes vérifiés » de certains personnes.

Si des chercheurs ont pu trouver des centaines de milliers de robots en ligne en un mois, ces plateformes en sont capables tout autant.