Sécurité des données : Apple viole t-il ses propres règles en matière de vie privée ?

Sécurité des données : Apple viole t-il ses propres règles en matière de vie privée ?

août 12, 2021 Non Par admin

Très récemment, le géant à la pomme expliquait son nouveau dispositif censé aider à la lutte contre la pédopornographie.

Il va consister entre autres scanner les appareils des utilisateurs d’iPad et iPhones dans le but de détecter les images compromettantes. Une atteinte à la vie privée qui ne passe pas pour tout le monde et risque de porter atteinte à l’image de marque que Apple s’est forgé depuis tant d’années.

Cet article va aussi vous intéresser : Affaire Pegasus : quand Apple essaie de rassurer les utilisateurs d’iPhone

« Apple a dévoilé, jeudi, des nouveaux outils afin d’identifier plus efficacement les contenus pédopornographiques sur ses appareils et services. Mais certains experts en sécurité informatique redoutent que ce dispositif n’ouvre la boîte de Pandore de la surveillance de masse. », explique Sébastian Seibt, Journaliste à France 24.

Comme on le sait de manière pratique, Apple a bâti sa réputation autour du respect de la vie privée et de la sécurité de l’utilisateur. Si l’initiative semble louable, et elle l’est, il n’en demeure pas moins qu’il pose notamment problème face à des utilisateurs de plus en plus regardant aux entorses à leurs intimités.

L’initiative de Apple se dénomme « NeuralMatch », est l’objectif derrière cette mesure est totalement sain. La lutte contre la pornographie infantile. Elle est censée débuter le mois prochain aux États-Unis, avec une mise à jour. Grâce à l’utilisation de l’intelligence artificielle et de la cryptographie, le géant américain veut analyser et scanner les photos stockées sur les iPhone et iPad de manière locale, Histoire de pouvoir détecter de potentielles pornographie infantile.

Apple a la possibilité de contrôler l’ensemble des images qui se trouve sur iCloud. C’est d’ailleurs le cas pour ses autres concurrents tels que Microsoft, Dropbox et Google. À la seule différence des autres, la société américaine veut analyser les clichés qui sont contenus dans la mémoire locale d’iPhone. Si l’initiative est saluée notamment par Jim Clark le président de de la plus importante organisation de lutte contre l’exploitation des mineurs, le National Center for Missing and Exploited Children, il n’en pas pour tout le monde.

« L’initiative d’Apple peut changer la donne », souligne John Clark, lors d’une interview donnée Wall Street Journal. « Cet outil permet, en effet, à Apple de faire comprendre aux utilisateurs de ses appareils qu’ils ne peuvent avoir aucun jardin secret, même dans les plus sombres recoins de leurs smartphones. Toutefois, ce nouveau Big Brother serait le plus respectueux possible de la vie privée. L’algorithme ne regarde pas les images. Il réduit chaque fichier à un identifiant numérique – l’équivalent d’une empreinte digitale – et cherche une éventuelle correspondance dans le fichier des plus de 200 000 images d’abus sexuels sur mineurs du NCEM. », explique ce dernier.

De la sorte, si l’intelligence artificielle de Apple arrive à trouver une correspondance entre des clichés qui sont sur le disque dur de l’iPhone et sur la liste de l’organisation de défense contre l’exploitation des mineurs, ce dernier colis est envoyé automatiquement à un l’employé de Apple qui lui sera chargé de vérifier de manière claire si l’image est belle et bien de nature pédopornographique. Pour la société de Cupertino, son outil n’est pas du tout intrusif. « Si vous stockez une collection de photos d’abus d’enfants, vous aurez des problèmes, mais pour les autres, ça ne changera absolument rien », a signifié Erik Neuenschwander, le responsable chargé des questions de protection de la vie privée pour Apple, lors d’une interview accordée au le New York Times. Ce nouvel outil « est clairement fait pour rassurer les autorités et donner des gages de bonne volonté aux forces de l’ordre », a précisé Riana Pfefferkorn, une spécialiste des questions de surveillance informatique à l’Observatoire de l’Internet de l’université de Stanford, durant une table ronde entre plusieurs spécialistes de la sécurité consacré à l’annonce de l’initiative de Apple.

Apple veut sûrement changer les choses lorsqu’on c’est que en 2019 une enquête a démontré qu’il était bien loin derrière plusieurs de ses concurrents en matière de lutte contre la pédopornographie. « En 2019, Facebook a signalé 15,8 millions contenus pédopornographiques, contre 205 pour Apple. Il y a clairement un problème de sous-évaluation du nombre d’images illégales qui circulent grâce aux services d’Apple », explique Casey Newton, un célèbre journaliste américain spécialisé dans le secteur des nouvelles technologies.

Ce n’est pas tout, le géant américain se prépare a annoncé le déploiement de chiffrement de bout en bout pour renforcer la protection des données sur iCloud dans les prochains mois. En d’autres thèmes même Apple ne pourra pas lire le contenu de ces données. « C’est une décision très attendue, et l’annonce qui vient d’être faite peut-être une manière pour Apple de rassurer les autorités en leur faisant comprendre qu’il sera toujours possible de repérer des contenus illégaux malgré le chiffrement », explique Riana Pfefferkorn.

Cependant l’initiative de lire le contenu local d’iPhone et iPad inquiète plus d’un spécialiste.

« C’est un dispositif épouvantable qui va inévitablement transformer nos ordinateurs [MacBook, NLDR], iPhone et iPad en outil de surveillance massive », déclare Ross Anderson, un expert de la sécurité informatique à l’université de Cambridge.

« C’est comme ça que la surveillance électronique s’installe. D’abord pour les motifs les plus nobles, puis pour traquer les images d’armes à feu, puis trouver les photos de manifestations, puis les captures d’écran de discussion au sujet de manifestation, etc », s’inquiète, John Hamasaki, un avocat américain spécialiste du droit pénal.

En d’autres termes, Apple aurait commis un faux pas, en développant une intelligence artificielle capable de scanner des photos directement dans les iPad et l’iPhone.

« Dorénavant, il suffit de changer quelques paramètres dans l’algorithme pour lui permettre de trouver d’autres types de photos », note l’Electronic Frontier Foundation, une ONG américaine de lutte pour la protection de la vie privée en ligne.

« Les gouvernements, y compris celui des États-Unis, vont inévitablement demander à Apple d’adapter ce dispositif à la lutte contre le terrorisme. Et on sait à quel point cette notion peut avoir des sens différents d’un pays à un autre », alerte David Thiel, directeur technique de l’Observatoire de l’Internet de Stanford.

« Je peux très bien m’imaginer que le lobby de la musique et du film exige d’Apple d’adapter cette technologie pour chercher des fichiers qui violeraient les droits d’auteur », souligne Riana Pfefferkorn.

« Vous avez intérêt à avoir confiance en la direction d’Apple de ne jamais céder à toutes ces demandes. Car dorénavant, la confiance est tout ce qui nous reste pour éviter les dérapages de cette technologie », déclare avec regret, Matthew Green, un chercheur en cryptographie à l’université John Hopkins de Baltimore.

Dans l’attente de ce qui peut arriver par la suite, on attend tous le déploiement de cette nouvelle technologie.

Accédez maintenant à un nombre illimité de mot de passe :

Découvrez nos logiciels de piratage