Apple lance un programme de vérification de son système de sécurité destiné aux enfants

Apple lance un programme de vérification de son système de sécurité destiné aux enfants

août 22, 2021 Non Par admin

Il y a quelques semaines de cela la société de Cupertino avait informé le grand public quelle allait mettre en place un nouveau système destiné à l’identification des photos contenues dans iOS et dans les iPads.

L’objectif était de détecter à les images à caractère pédopornographique dans le but de lutter contre cette situation pour laquelle qu’elle avait été auparavant pointé du doigt pour son inactivité en ce sens. Selon les explications fournies par la société américaine, l’objectif est décrypté les photos et galerie en leur accordant un identifiant. De la sorte ses photos sur comparer avec une autre base de données provenant d’une ONG luttant contre la pédopornographie.

Cet article va aussi vous intéresser : Sécurité des données : Apple viole t-il ses propres règles en matière de vie privée ?

Apple a aussi parlé d’une possible évolution de cette technologie qui n’a autre que pour objectif de protéger les enfants contre cet aspect assez sombre de l’usage d’Internet. Les fonctionnalités seront déployées avec la mise à disposition de IOS 15, un déploiement qui est prévu pour le mois prochain. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l’ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la firme de Cupertino.

Le système de balayage est appelé NeuralMatch. Pour alerter d’une manière proactive une équipe de spécialistes dédié à cet effet pour consulter et vérifier si les images correspondent belle bien à la catégorie des images illicites. Dans la mesure où c’est le cas, les personnes dédiées à cet examen minutieux aurons la possibilité de contacter les forces de l’ordre.

La base de données qui sera utilisée pour ce projet se compose de 200 000 images issues du National Center for Missing & Exploited Children. Le déploiement commencera d’abord aux États-Unis pour ensuite toucher le reste du monde. La société de Cupertino a insisté sur le fait que les images seront hachées lors du balayage.

Apple explique pour chaque photo qui sera télécharger sur iCloud aux États-Unis, il lui sera imputé un bon de sécurité pour mentionner que celle-ci est suspecte. Dans la mesure où on nombre de photos est marquée comme suspectes, elles seront envoyées pour une analyse pratique donc déchiffrer pour que les autorités compétentes puis s’en servir. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a signifié l’entreprise en cherchant à rassurer sur la confidentialité des données de ses utilisateurs.

Bien évidemment cette initiative ne fait pas l’unanimité. Une division qui a même été observée au sein du personnel de Apple.

« Ce genre d’outil peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens… Mais imaginez ce qu’il pourrait faire entre les mains d’un gouvernement autoritaire », s’inquiète Matthew Green, professeur à l’université John Hopkins et cryptographe.

Par ailleurs d’autres spécialistes ont mentionné la possibilité que l’utilisation de cette technologie pour se détendre beaucoup plus qu’à la détection d’abus sexuel sur enfant. Il imagine la possibilité de pouvoir l’utiliser pour récupérer des images d’actes terroristes ou de signes anti gouvernementaux lors de manifestations publiques. Et pire encore d’autres plateformes pourraient être tentées par cette initiative. Cela pourrait peut-être même une pression de plus pour d’autres entreprises en ayant des portants donnés personnelles à leur gestion d’initier des actions similaires. « Les gouvernements l’exigeront de tous », note avec inquiétude le professeur Green.

Pour le chercheur en sécurité informatique et militant pour la protection de la vie privée, Alec Muffett, l’initiative de Apple était « « tectonique » et constituait un « pas énorme et régressif pour la vie privée ». « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », ajoute ce dernier.

Face à la montée de la grogne, la société de Cupertino reconnaît lors d’une interview accordée au Wall Street Journal, quelle avait mal géré cette communication pour exprimer son projet. Le responsable des logiciels chez Apple. Craig Federighi, déclarer à cet effet que la démarche à présenter des fonctionnalités au même moment était « une recette pour ce genre de confusion ». « Nous aurions aimé que l’annonce soit un peu plus claire pour tout le monde ».

De plus Apple a même mentionné la possibilité de faire vérifier sa technologie par des spécialistes externes. « Les chercheurs en sécurité sont constamment en mesure d’introspecter ce qui se passe dans le logiciel [téléphonique] d’Apple », a souligné Craig Federighi, lors interview au Wall Street Journal. « Donc, si des changements étaient apportés pour étendre la portée d’une manière que nous nous étions engagés à ne pas faire, il y a une vérifiabilité, ils peuvent détecter ce qui se passe ».

Pourtant Apple fait quelque chose qui s’oppose à cette déclaration, elle poursuit une société qui propose des logiciels qui permettent au chercheurs en sécurité de faire exactement cette vérification dont parle le vice-président de la société à la Pomme.

Accédez maintenant à un nombre illimité de mot de passe :

Découvrez nos logiciels de piratage