Archives par mot-clé : raciste

Quand les policiers publient des messages racistes sur Facebook

Il a été constaté depuis plusieurs mois, que des agents de de l’ordre public, en particulier des policiers proféraient des messages racistes sur le réseau social Facebook.

La question est de savoir quelle a été la réaction du réseau social face à une telle situation.

Les réactions des policiers français, jugées raciste de manière ouverte ne sont pas passées inaperçues au regard de l’opinion publique. Car sur des groupes Facebook, ces derniers n’ont pas manqué de publier des propos assez désobligeants. Les groupes montrés du doigt sont notamment « TN Rabiot Police Officiel » et « FDO 22 unis », qui ressemblent à eux deux prêt de 17 000 les agissements assistant de virement a été mis à nu par le site StreetPress. À cet effet, une enquête préliminaire a été ouvertes contre ces derniers pour « provocation publique à la haine raciale » et « injure publique à caractère raciste ».

Cet article va aussi vous intéresser : Qui partage mes données sur Facebook ?

De son côté, Facebook déclarait : « Nous avons retiré plusieurs contenus dans ces groupes car ils ne respectaient pas nos règles et nous sommes reconnaissants envers ceux qui les ont portés à notre attention. Nous répondrons aux demandes d’information des autorités françaises, en conformité avec nos procédures de coopération. ».

Le réseau social aurait procédé à un retrait de tous les contenus de ses groupes, certains membres de groupe ayant signalé ces publications. Cependant ce qu’il ne précise pas le fait de savoir si les suppressions sont survenues après les articles de presse qui ont dénoncé cette situation ou si le réseau social ciblait particulièrement ces personnes et leurs publications. Mais ce que l’on sait, c’est que les modérateurs de Facebook ont tendance à travailler que sur des contenus signalés par d’autres utilisateurs. Ce qui voudrait dire que si dans un groupe, les membres partagent les mêmes idéologies et opinion, ils ne seraient jamais inquiétés par le réseau social. Et le fait que le réseau social est mis en place la bulle de filtre facilite encore plus ce genre de phénomène. « Pour faire appliquer ces politiques dans les groupes privés, nous combinons à la fois les signalements des utilisateurs, des administrateurs de groupe ainsi que des moyens technologiques » assure cependant le réseau social.

En utilisant de puissants moyens technologiques, Facebook compte utiliser l’intelligence artificielle pour faciliter sa détection des contenus nuisibles. Une tendance qui est beaucoup en vogue près de différents réseaux sociaux, sûrement à cause de la pandémie du coronavirus. S’il ne communique pas sur les publications ratées par ses équipes, il assure toutefois que : « Cette technologie a beaucoup progressé ces derniers mois. Cependant, Entre janvier et mars, plus de 88 % des 9,8 millions de discours haineux que nous avons retirés de Facebook pour violation de nos règles sur les discours haineux ont été détectés de manière proactive par notre technologie, contre 68 % à la même période l’année dernière. ».

Du côté d’un des groupes indexés, « TN Rabiot Police Officiel », le site StreetPress notait : « 1.000 personnes ont quitté » il ajoute par la suite « Plusieurs commentaires révélés par StreetPress ont été supprimés, notamment ceux relatifs à la manifestation en soutien à Adama Traoré. »

Par ailleurs, Facebook a signifié que la majorité des publications montrée du doigt dans ces groupes ne violent pas sa politique de Standard de la Communauté que vous pouvez consulter en cliquant sur le lien suivant : https://www.facebook.com/communitystandards/. Une politique qui concerne à la fois les groupes Publics et le groupes privés. « Certains groupes peuvent enfreindre nos règles et lorsqu’un groupe entier enfreint les Standards de la Communauté, nous le supprimons. Cependant, décider si un groupe entier doit être supprimé ou non est souvent complexe – car les groupes comptent souvent des dizaines, des centaines, voire des milliers de membres et de publications, dont beaucoup ne violent pas nos règles » mentionne le réseau social.

Pour s’assurer que les groupes ne violent pas les règles établies, Facebook assure mettre tout en œuvre pour veuillez aucune dérive ne soit tolérée sur sa plate-forme. De ce fait, il prendrait en compte de différents facteurs allant du nom du groupe jusqu’à sa description en passant par les contenus publiés par les membres. De ce fait, si la description de groupe correspond à un discours haineux, et que la majorité des publications vont dans ce sens, le réseau social peut alors envisager s’imposer certaines sanctions. « Si le groupe ne franchit pas cette ligne, il restera en place, mais nous continuerons à supprimer les publications individuelles » souligne Facebook.

Accédez maintenant à un nombre illimité de mot de passe :

Découvrez nos logiciels de piratage

L’intelligence artificielle engagée dans la lutte contre les discours haineux

2020 s’annonce prometteur pour la gestion des conflits depuis la toile.

En effet des chercheurs ont décidé d’utiliser des outils qui seront basés sur l’intelligence artificielle pour non seulement détecter les discours haineux mais aussi les mettre en quarantaine pour éviter qu’il n’atteigne le maximum de personnes.

Cet article va aussi vous intéresser : Quelle est la place de l’intelligence artificielle dans la guerre entre pirate informatique et il les éditeurs des solutions antivirus ?

De la sorte il sera plus efficace de lutter contre ces propos à caractère violent et sans pour autant être accusé de censure.

Cette proposition a été faite par des chercheurs de l’Université de Cambridge qui après avoir mené une étude sur les médias sociaux ont décidé d’agir en mettant à profit leur connaissance de l’intelligence artificielle dans la gestion de la propagation des discours haineux. Dans une approche objective, on sait que les formes de discours haineux dépendent de l’État ainsi que de la région du monde dans lequel ils sont émis. Ce qui fait que le simple blocage de mots clés ou interruption des publications ne serait peut-être véritablement efficace. Par ailleurs, certaines descriptions multimédia ou graphiques n’ont pas besoin de contenir des mots ou encore des insultes à caractère ethnique pour être choquant ou blessant.

Au vu d’un expert de la linguistique et un ingénieur en informatique ont décidé de proposer une solution à travers une publication parue dans la revue « Ethics and Information Technology », où il a été proposé d’utiliser des techniques en pointant à la cybersécurité pour mieux cibler les messages qui devrait ne pas apparaître sur le web. Et cela sans recourir à la censure. En se servant d’une base de données reposant sur des menaces et des insultes violentes, les ingénieurs de l’Université de Cambridge sont en train de créer les algorithmes qui vont permettre de déterminer un ensemble d’éléments caractérisant de façon formelle un discours haineux.

De la sorte plus les messages portent des références à la haine plus ils seront mis en quarantaine sans ménagement. Par la suite les autres utilisateurs recevront un message d’avertissement par un baromètre qui va leur indiquer la gravité du message en terme de discours haineux, ainsi que le nom de l’expéditeur et une fenêtre pour le permettant soit de lire le contenu du message ou de l’effacer sans même le lire.

À ce propos, l’un des experts du nom de Tomalin, ayant participé à la mise en place de cet algorithme affirmait ceci : « Notre système signalera quand vous devez être prudent, mais le dernier mot vous revient. Il n’empêche pas les gens de poster ou de voir ce qu’ils aiment, mais il donne le contrôle nécessaire à ceux qui sont inondés de propos haineux ». Il ajoutera par la suite ceci : « Grâce à des quarantaines automatisées qui fournissent des conseils sur la force du contenu haineux, nous pouvons donner du pouvoir à ceux qui sont l’objet du discours haineux qui empoisonne nos échanges en ligne »

Cependant le dispositif ne fonctionne avec précision qu’à 60 % il y a plusieurs choses encore qu’il faudrait mettre en place pour atteindre la perfection à ce niveau. « L’identification de mots-clés individuels ne suffit pas, nous examinons des structures de phrases entières et bien au-delà. Les informations sociolinguistiques dans les profils d’utilisateurs et les historiques de publication peuvent toutes aider à améliorer le processus de classification » soutenait un autre expert.

Accédez maintenant à un nombre illimité de mot de passe :

Découvrez nos logiciels de piratage