L’assaut des bots : comment savoir qui est humain en ligne ?

J’avais déjà fait un article sur l’armée de bots sévissant sur Facebook et Twitter et leur impact pour faire monter une tendance en politique,  pour influencer la tendance et faire monter leurs affirmations, et noyer vos commentaires dans la masse.

La désinformation à échelle gigantesque via les comptes bots.

Cet article du Guardian  (extrêmement long, détaillé et fourni , comme tous les articles du Guardian) , explique que de nos jours , bien malin  est celui qui peut encore faire la différence en ligne entre un bot et un humain, tellement ces derniers sont devenus perfectionnés.

Voici ma traduction :

L’assaut des bots: comment savoir qui est humain en ligne ?

Les « voix » automatisées censées effectuer des tâches banales en ligne diffusent désormais des discours de haine et polarisent les opinions. Sont-ils une aubaine ou une menace ?

Le célèbre test de Alan Turing pour savoir si les machines pouvaient nous faire croire qu’elles étaient humaines – “le jeu de l’imitation” – est devenu une question banale et quotidienne pour nous tous. Nous sommes entourés de voix de machines et nous n’hésitons pas à converser avec elles – même si chaque fois que j’entends ma voiture me dire où tourner à gauche, je me souviens de ma grand-mère, qui, ayant installé un téléphone tard dans la vie, avait l’habitude de dire bonne nuit à l’horloge parlante.

Nous nous retrouvons enfermés dans des conversations textuelles interminables avec des caissiers de banque automatisés et offrons le nom de jeune fille de notre mère à une variété de haut-parleurs robotiques qui semblent « vivants. » J’ai résisté aux espions domestiques d’Apple et d’Amazon, mais un ou deux amis décrivent en plaisantant le rapport qu’eux et leurs enfants ont établi avec Alexa d’Amazon ou le Home Hub de Google – et ils ont raison à ce sujet : plus vous en dites à votre assistant virtuel , plus vous divulguez de désirs et de désirs, plus il peut apprendre et mémoriser rapidement ces derniers fragments de votre vie intérieure que vous aviez gardés pour vous.

Alors que la frontière entre les voix humaines et numériques s’estompe, nos soupçons s’élèvent : à qui parlons-nous exactement ? Aucune conversation en ligne ou discussion sur un chat électronique n’est complète sans ses sceptiques : « Êtes-vous un bot ? » Ou, le claquement de porte virtuel : « Bot : bloqué ! Ces doutes ne feront que croître. La capacité des robots – un terme qui peut décrire tout processus automatisé présent dans un réseau informatique – à imiter le comportement et le langage humains en ligne s’est fortement développée au cours des trois dernières années. Pour le moment, la plupart d’entre nous restent sereinement confiants que nous pouvons faire la différence entre une présence humaine et les voix codées des “fantassins” d’Internet qui effectuent plus de 50 % de ses tâches et contribuent à environ 20 % de tous les réseaux sociaux. «conversation» médiatique. Cette confiance ne s’étend cependant pas à ceux qui ont consacré la dernière décennie à essayer de détecter et de se défendre contre cette invasion de robots.

Naturellement, en raison de l’ampleur de la tâche, ils doivent faire appel à des bots pour les aider à trouver des bots. Le test de Turing automatisé le plus accessible est la création du professeur Emilio Ferrara, chercheur principal en intelligence artificielle et science des données à l’Université de Californie du Sud. À ses débuts, le bot-détecteur « BotOrNot ? » nous a permis d’utiliser de nombreux indicateurs classiques d’automatisation – activité anormale du compte, répétition, profils génériques – pour déterminer l’origine d’un flux Twitter. Maintenant appelé Botometer (après que l’original ait été ciblé par des hacks imitateurs), il dispose d’un algorithme sophistiqué basé sur tout ce qu’il a appris. C’est une bonne astuce. Vous pouvez lui donner votre propre nom Twitter – ou celui de quelqu’un d’autre – et établir rapidement à quel point vos mots ressemblent à des bots.

Au cours des cinq années écoulées depuis que BotOrNot est opérationnel, la détection est devenue beaucoup plus complexe. “Les progrès de l’intelligence artificielle et du traitement du langage naturel améliorent chaque jour les bots”, dit-il. Les ensembles de données incalculables que Google et d’autres ont récoltés à partir de nos incessants bavardages en ligne contribuent à faire en sorte que les bots nous ressemblent beaucoup plus.

Le Botomètre est alimenté par deux systèmes. L’un est une “boîte blanche” qui a été formée au fil des ans pour examiner les modèles statistiques dans la langue, dit Ferrara, “ainsi que le sentiment, l’opinion” des tweets. Au total, il existe plus de 1 200 fonctionnalités pondérées par rapport auxquelles un flux Twitter est mesuré pour déterminer s’il a un pouls. Parallèlement à cela, le Botometer dispose d’un «modèle de boîte noire» alimenté par une masse de données provenant de bots et d’humains, qui a développé ses propres ensembles de critères pour séparer l’homme de la machine. Ferrara et son équipe ne savent pas exactement sur quoi ce système s’appuie pour ses jugements, mais ils sont impressionnés par sa précision.

Lorsque Ferrara a commencé ce travail, il pensait qu’il avait développé son propre sixième sens pour flairer l’intelligence artificielle sur Twitter. Maintenant, il n’est plus aussi confiant. “Aujourd’hui, il n’est pas clair pour moi que j’interagis avec autant d’humains que je le pensais”, dit-il. “Nous examinons attentivement certains comptes, nous les analysons à travers l’algorithme et c’est indécis. Très souvent maintenant, c’est un tirage au sort. Le vocabulaire semble trop beau pour être vrai.

Tous les bots ne visent pas à tromper ; beaucoup effectuent des opérations de routine. Les robots ont été créés à l’origine pour aider à automatiser les tâches répétitives, ce qui permet aux entreprises d’économiser du temps et de l’argent. Certains robots aident à rafraîchir votre flux Facebook ou vous tiennent au courant de la météo. Sur les réseaux sociaux, les bots étaient à l’origine codés pour rechercher des hashtags et des mots-clés et retweeter ou amplifier des messages : “OMG as-tu vu ça ?!” Ils ont joué le rôle de cheerleaders pour Justin Bieber ou Star Wars ou Taylor Swift. Il y avait des “vanity bots” qui ajoutaient des numéros et de faux “likes” aux profils pour améliorer artificiellement leur statut, et des “traffic bots” conçus pour conduire les clients vers un site d’achat particulier. Il y avait aussi des robots qui agissaient comme des grammairiens, apportant des corrections pédantes aux tweets, ou de simples gags comme Robot J McCarthy, qui recherchait des conversations en utilisant le mot « communiste » et répondait avec un slogan absurde.

À un moment donné, des robots politiques sont entrés dans la mêlée, principalement sur Twitter, dans le but de diffuser de la propagande et de la désinformation. À l’origine, ceux-ci semblent avoir été le travail de pirates individuels, avant que les techniques ne soient adoptées par des groupes organisés et généreusement financés. Ces bots, suggère Ferrara, se sont avérés être un moyen très efficace de diffuser des points de vue extrémistes et de propager des théories du complot, mais ont également été programmés pour rechercher ces points de vue à partir d’autres comptes authentiques en aimant, partageant, retweetant et suivant, afin de leur donner importance disproportionnée. Ce sont ces robots que les plateformes de médias sociaux ont tenté d’éliminer à la suite des enquêtes sur les élections américaines de 2016 menées par Robert Mueller et d’autres. Twitter a supprimé 6 millions de comptes de robots depuis 2018, et continue inlassablement.

L’équipe de recherche d’Oxford a commencé à examiner l’énorme croissance de l’activité des bots sur les réseaux sociaux après l’abattage de l’avion de passagers MH17 avec un missile russe en 2014. Un nombre vertigineux de théories du complot concurrentes ont été “ensemencées” et encouragées à se propager par une armée rouge d’agents automatisés, brouillant les faits de l’atrocité. Plus les chercheurs d’Oxford regardaient, plus ils voyaient comment des modèles similaires d’activité en ligne amplifiaient des hashtags spécifiques ou déformaient les nouvelles.

Au début, suggère Neudert, les robots s’appuieraient sur le volume. “Par exemple”, dit-elle, “au printemps arabe, les bots inondaient les hashtags que les militants utilisaient dans la clandestinité afin de rendre la conversation inutile”. Ou, comme Eliza, les bots répondaient à un mot-clé pour faire passer un sujet marginal à la mode et, souvent, dans l’actualité. C’était un instrument efficace mais brutal. “Si je tweete quelque chose disant” Je déteste Trump “”, explique Neudert, un bot à l’ancienne “m’enverrait un message sur Trump parce qu’il répond à ce mot-clé. Mais si je dis “J’aime Trump”, cela m’enverrait le même message.” Ces robots n’étaient pas assez intelligents pour reconnaître l’intention, mais cela est en train de changer. “Les entreprises commerciales qui utilisent actuellement l’intelligence artificielle et le traitement du langage naturel développent déjà de telles technologies. Ce que nous avons fait en tant que projet, c’est essayer de savoir si les acteurs politiques les utilisent déjà aussi.

Neudert s’intéresse particulièrement à la nouvelle génération de chatbots de marque qui poussent du contenu et initient des conversations sur des plateformes de messagerie. De tels chatbots – qui se déclarent ouvertement automatisés – représentent une nouvelle façon pour les entreprises et les services d’information d’attirer votre attention, en donnant l’impression de ne parler qu’à vous. Elle imagine que les robots de propagande utiliseront la même technologie, mais sans se déclarer. “Ils se présenteront comme des utilisateurs humains participant à une conversation en ligne dans les sections de commentaires, les discussions de groupe et les forums de discussion.”

 

Part of the wreckage of the Malaysian airliner shot down by a Russian missile in 2014. Russian chatbots spread conspiracy theories about the accident. Photograph: Igor Kovalenko/EPA
S’abonner
Notification pour
guest
0 Commentaires
Commentaires en ligne
Afficher tous les commentaires
0
Nous aimerions connaître votre avis.x
()
x