L’intelligence artificielle engagée dans la lutte contre les discours haineux

2020 s’annonce prometteur pour la gestion des conflits depuis la toile.

En effet des chercheurs ont décidé d’utiliser des outils qui seront basés sur l’intelligence artificielle pour non seulement détecter les discours haineux mais aussi les mettre en quarantaine pour éviter qu’il n’atteigne le maximum de personnes.

Cet article va aussi vous intéresser : Quelle est la place de l’intelligence artificielle dans la guerre entre pirate informatique et il les éditeurs des solutions antivirus ?

De la sorte il sera plus efficace de lutter contre ces propos à caractère violent et sans pour autant être accusé de censure.

Cette proposition a été faite par des chercheurs de l’Université de Cambridge qui après avoir mené une étude sur les médias sociaux ont décidé d’agir en mettant à profit leur connaissance de l’intelligence artificielle dans la gestion de la propagation des discours haineux. Dans une approche objective, on sait que les formes de discours haineux dépendent de l’État ainsi que de la région du monde dans lequel ils sont émis. Ce qui fait que le simple blocage de mots clés ou interruption des publications ne serait peut-être véritablement efficace. Par ailleurs, certaines descriptions multimédia ou graphiques n’ont pas besoin de contenir des mots ou encore des insultes à caractère ethnique pour être choquant ou blessant.

Au vu d’un expert de la linguistique et un ingénieur en informatique ont décidé de proposer une solution à travers une publication parue dans la revue « Ethics and Information Technology », où il a été proposé d’utiliser des techniques en pointant à la cybersécurité pour mieux cibler les messages qui devrait ne pas apparaître sur le web. Et cela sans recourir à la censure. En se servant d’une base de données reposant sur des menaces et des insultes violentes, les ingénieurs de l’Université de Cambridge sont en train de créer les algorithmes qui vont permettre de déterminer un ensemble d’éléments caractérisant de façon formelle un discours haineux.

De la sorte plus les messages portent des références à la haine plus ils seront mis en quarantaine sans ménagement. Par la suite les autres utilisateurs recevront un message d’avertissement par un baromètre qui va leur indiquer la gravité du message en terme de discours haineux, ainsi que le nom de l’expéditeur et une fenêtre pour le permettant soit de lire le contenu du message ou de l’effacer sans même le lire.

À ce propos, l’un des experts du nom de Tomalin, ayant participé à la mise en place de cet algorithme affirmait ceci : « Notre système signalera quand vous devez être prudent, mais le dernier mot vous revient. Il n’empêche pas les gens de poster ou de voir ce qu’ils aiment, mais il donne le contrôle nécessaire à ceux qui sont inondés de propos haineux ». Il ajoutera par la suite ceci : « Grâce à des quarantaines automatisées qui fournissent des conseils sur la force du contenu haineux, nous pouvons donner du pouvoir à ceux qui sont l’objet du discours haineux qui empoisonne nos échanges en ligne »

Cependant le dispositif ne fonctionne avec précision qu’à 60 % il y a plusieurs choses encore qu’il faudrait mettre en place pour atteindre la perfection à ce niveau. « L’identification de mots-clés individuels ne suffit pas, nous examinons des structures de phrases entières et bien au-delà. Les informations sociolinguistiques dans les profils d’utilisateurs et les historiques de publication peuvent toutes aider à améliorer le processus de classification » soutenait un autre expert.

Accédez maintenant à un nombre illimité de mot de passe :

Découvrez nos logiciels de piratage