Piratage impliquant la propulsion de plusieurs photos de femmes nues sur l’application de messagerie Telegram

Piratage impliquant la propulsion de plusieurs photos de femmes nues sur l’application de messagerie Telegram

octobre 23, 2020 Non Par admin

Récemment la célèbre application de messagerie Telegram, est aux prises avec un deepfake.

Dans les échanges lorsque des utilisateurs postent des photos de femmes, de façon artificielle un programme informatique les transforment en photos de femmes nues. Cette pratique a impliqué près de 680 000 fichiers dans des photos appartenant à des mineurs.

Cet article va aussi vous intéresser : Alerte ! Un nouveau virus ça se fait passer pour des messageries populaires d’Android

Dans un certain sens, cela se présente comme une menace à la sécurité des personnes concernées ainsi que à l’atteinte à leur intégrité et réputation. Sans oublier l’autre côté, la violation de données. Sensity, une entreprise néerlandaise spécialisée dans la veille sécuritaire en ligne commentait cette nouvelle tendance, découverte par ses soins : « Une menace à la réputation des individus, et la sécurité des données ».

Cette tendance qui s’est développée sur Telegram se développe peu à peu dans certains groupes spécifiques. Où les images des femmes sont distribuées dans le but de créer ces deepfakes. Des images artificielles pour la plupart généré par une intelligence artificielle, utilisée dans le développement du code.

Le fonctionnement est basique quoi que peu moral. Les personnes impliquées dans ce trafic d’images se contentent simplement de télécharger les photos de femmes principalement sur les réseaux sociaux. Ces images seront proposées dans la chaîne de conversation qui automatiquement seront modifiées. Le programme efface les vêtements de sorte à faire sembler les femmes nues. Si le résultat est parfois réaliste, il faut noter qu’il n’est pas toujours probant. « En tout, plus de 680.000 photos de femmes auraient ainsi été trafiquées, dont des photos de jeunes femmes « qui semblent mineures », souligne-le media en ligne Buzzfeed News.

« C’est un cas assez unique, parce qu’il ne s’agit pas juste de gens qui discutent et partagent des contenus, mais ce programme informatique est vraiment intégré à Telegram, et nous n’avons jamais rien vu de pareil ». Note avec inquiétude Giorgio Patrini, le responsable de Sensity lors d’un échange accordé à Buzzfeed News.

Selon la société néerlandaise, les personnes utilisant ce procédé sont en majorité localisé en Russie et dans les pays limitrophes de l’Est européen. En principe le fait de modifier la photo d’un gratuite. Mais pour modifier plus de 100 photos, il faudrait payer la somme de 1 dollar, pour ne pas avoir un logo là-dessus, Histoire de faire croire à de vraies photos.

Parlant de deepfakes, notons que c’est un procédé, qui permet de modifier une image ou une vidéo, de sorte à ce qu’elle semble authentique en y ajoutant certains ingrédients particuliers, comme modifier le visage des personnes.

Cette pratique n’est pas récente et elle est continuellement dénoncée par-ci par-là. Simplement parce qu’elle sert à non seulement à divulguer de fausses informations, mais aussi dans les cadres de harcèlement massive en ligne. Mais il n’est pas rare aussi que cette pratique permet de l’identité de personnes haut placées dans le but de réaliser la fameuse fraude au président ou autre pratique d’extorsion. Il est d’ailleurs très répandu de propager des images pornographiques à partir d’images photographique modifiée de femme. On rentre alors dans le cadre courant de ce qui se fait appeler le « Revenge porn » : la vengeance porno 2.0.

Le média en The Verge explique que ces robots découlent d’un programme malveillant dénommé « Deepnude ». Son créateur après l’avoir conçu a mis automatiquement fin à son fonctionnement par peur « craignant un mauvais usage ». Malheureusement des développeurs ont réussi à absorber le code source et créer par la suite leur propre intelligence artificielle étant en mesure de modifier une quantité non négligeable de photos en même temps très court. Ces intelligences artificielles sont aujourd’hui faciles à trouver. Se trouvant héberger souvent sur des plateformes ouvertes sources, facilitant ainsi leur reproduction. Le risque est donc prégnant. Cela peut s’étendre au monde entier.

« Créer de la fausse pornographie en masse. Pour ces utilisateurs créant en masse des fausses photos de femmes nues, l’intérêt serait de créer du contenu pornographique » note Sensity. Ce dernier point n’a pas encore été prouvé par l’entreprise, cependant la probabilité que cela puisse se faire n’est pas négligeable.

Du côté de Telegram, les responsables n’ont pas encore fait de déclaration sur le sujet. Notons que l’application est utilisée par près de 400 millions de personnes par mois à travers le monde entier, quoique à cause de sa particularité, elle est censurée dans plusieurs États, notamment en Chine.

Accédez maintenant à un nombre illimité de mot de passe :

Découvrez nos logiciels de piratage