Archives de catégorie : Apple

Apple est une entreprise qui conçoit et fabrique des appareils informatiques. Elle n’est pas à l’abri des pirates qui tentent par tous les moyens d’hacker leur système.

Comment pirater un iPhone : la vulnérabilité Karma

Récemment aux Émirats arabes unis, il avait été mis au vente un exploit permettant de pirater un iPhone.

La valeur de cet exploit était de 1,3 millions de dollar américain. Selon les informations qui circulent à ce sujet, il aurait été développé par une entreprise américaine et mis à la disposition des mercenaires permettant la vente de ce nouvel outil.

Cet article va aussi vous intéresser : Pegasus Faille 0-Day dans iMessage qui peut mettre en mal la sécurité des iPhones

Apparemment, cet exploit de sécurité de type sans clic aurait été découvert depuis 2019 est même signalé par le gouvernement américain. Il aurait servi à d’anciens agents de renseignement de ce même gouvernement.

« Une équipe d’anciens agents du renseignement du gouvernement américain travaillant pour les Émirats arabes unis a piraté les iPhones d’activistes, de diplomates et de dirigeants étrangers rivaux à l’aide d’un outil d’espionnage sophistiqué appelé Karma […] Les […] agents ont décrit Karma comme un outil qui pouvait accorder à distance l’accès aux iPhones simplement en téléchargeant des numéros de téléphone ou des comptes de messagerie dans un système de ciblage automatisé. L’outil a des limites – il ne fonctionne pas sur les appareils Android et n’intercepte pas les appels téléphoniques. Mais c’était exceptionnellement puissant car, contrairement à de nombreux exploits, Karma n’avait pas besoin d’une cible pour cliquer sur un lien envoyé à un iPhone, ont-ils déclaré. […] », a rapporté le MIT Technology Review.

Avec cette vulnérabilité, il a été mentionné que le gouvernement des Émirats arabes unis se sont servis pour obtenir des données personnelles tels que des Messages, des photos ou même des vidéos à partir d’iPhone.

De plus, cet exploit de sécurité aurait pu être utilisé entre 2016 et 2017, avant que la société de Cupertino ne la bloque grâce à une mise à jour de sécurité.

Selon le MIT Technology Review, les informations de sécurité ont été transmises aux Émirats arabes unis par le biais d’intermédiaires par une entreprise américaine. Le dernier, des documents ont été déposés près du département de la justice américaine dans lesquelles il est expliqué comment cette société américaine s’est servie de mercenaires pour commercialiser les exploits d’iPhone dont il est question.

Selon le MIT Technology Review, deux source aurait confirmé que : « l’exploit avait été développé et vendu par une société américaine nommée Accuvant. […] Il y a dix ans, Accuvant s’est forgé une réputation de développeur d’exploits prolifique travaillant avec de plus gros sous-traitants militaires américains et vendant des bogues à des clients gouvernementaux. […] Il a fusionné il y a plusieurs années avec une autre entreprise de sécurité, et ce qui reste fait maintenant partie d’une plus grande entreprise appelée Optiv […] ».

Du côté de Jeremy Jones, le porte-parole d’Optiv, l’entreprise mise en cause, cette dernière aurait « entièrement coopéré avec le ministère de la Justice et qu’Optiv n’est pas l’objet de cette enquête ».

Cela peut se comprendre car les personnes qui sont sujettes de cette enquête réalisée par le département de la justice sont en réalité des anciens membres du service de renseignement et de l’armée américaine. Ces derniers auraient de façon illégale collaboré avec le gouvernement émirati. Cependant la société pointée du doigt dans cette affaire a un statut qui fait qu’elle ne peut-être négligée à cause de ses activités de développeur et de vendeur d’exploits.

Selon le département de la justice, les 3 mercenaires mis en cause dans cette histoire ont d’ailleurs accepté de collaborer et de payer une amende à hauteur de 1,685 million de dollars.

Accédez maintenant à un nombre illimité de mot de passe :

Découvrez nos logiciels de piratage

Pegasus Faille 0-Day dans iMessage qui peut mettre en mal la sécurité des iPhones

Toujours autour de l’affaire Pegasus, portant sur l’utilisation de logiciel d’espionnage par certains gouvernements aux organismes pour espionner, l’application produite par la société israélienne NSO Group revient au cœur des débats.

Récemment, une faille de sécurité majeure a été détectée au niveau de l’application de messagerie des iPhones, le iMessage.

Cet article va aussi vous intéresser : PegasusGate : l’ONU demande un moratoire quant à l’utilisation des technologies d’espionnage

La révélation est le fait du Citizen Lab. Le laboratoire a en effet mis en évidence que le gouvernement du Bahreïn se positionne comme étant l’un des clients qui utilisent l’outil d’espionnage fournie par la société israélienne, le logiciel le plus célèbre au monde Pegasus. Ce dernier exploite des failles de sécurité découvertes sur les smartphones utilisés par des activistes et les défenseurs des droits de l’homme. Un piratage tellement sophistiqué qu’il n’existe de la part de l’utilisateur aucune action particulière telle que la délivrance de permission ou le clic sur un lien malveillant. Tout se passe de manière invisible à l’œil nu si on peut s’exprimer ainsi.

Dans les faits qui nous intéressent ici, les personnes ciblées par le logiciel Pegasus sont particulièrement des utilisateurs d’iPhone. La faille de sécurité qui permet de contourner les mesures de protection de la société américaine constructeur de Apple se situerait dans le service de messagerie iMessage. Une faille de type 0 day, en d’autres termes une vulnérabilité qui n’a pas été corrigée par Apple quand bien même qu’elle en avait la connaissance des puits bon moment.

Face à la situation, la société de Cupertino devrait prendre les mesures nécessaires pour améliorer la sécurisation de ses smartphones. Néanmoins, il faut préciser que les attaques informatiques utilisant Pegasus ce ne sont pas des menaces générales et impersonnelles. C’est le plus souvent des attaques très ciblées en d’autres termes elles sont assez rares. Les profils généralement ciblés sont des journalistes, des activistes, des personnalités politiques ou encore des avocats, en d’autres termes en des personnes généralement très importantes ou haut placées.

Selon un spécialiste de la cybersécurité généralement pour tout ce qui concerne les environnement IOS et Mac OS, Patrick Wardle, les failles de sécurité de ce genre sont connues depuis très longtemps. La frustration que présente ces vulnérabilités résident dans le fait que la société de Cupertino prend trop de temps pour les corriger voir les négligents.

« C’est compliqué de se dire qu’il y a toujours cette application de messagerie sur les appareils iOS qui permet ce genre d’attaques, et que l’on ne peut pas supprimer […] Finalement, n’importe qui dans le monde, à n’importe quel moment, peut être espionné à travers son iPhone sans le savoir et sans rien pouvoir faire à cause de Messages », note le spécialiste.

Cependant, on se rappelle que Apple avait essayé d’une certaine manière de contrecarrer les attaques de Pegasus contre son système d’exploitation à travers IOS 14, notamment en mettant en quarantaine les conversations issues de iMessage pour éviter que cela n’ait d’impact sur l’ensemble du système. Heureusement pour la société de Cupertino, l’initiative connu sur l’expression de « BlastDoor » n’a pas été suffisant pour stopper le logiciel espion de NSO Group.

Face à la situation on envisage alors que Apple va essayer de déployer de nouvelles dispositions au travers de IOS 15. C’est une nouvelle initiative qui doit faire ses preuves si Apple ne veut pas voir son image dégringoler de plus en plus surtout ces derniers temps ou les choses ne vont pas de bon train pour sa réputation, mettant ainsi en mal, l’une des principales bases de son marketing.

« Les attaques comme celles décrites sont très sophistiquées, leur développement coûte des millions de dollars, leur durée de vie est souvent courte et elles sont utilisées pour cibler des individus spécifiques […] Bien que cela signifie qu’elles ne constituent pas une menace pour l’écrasante majorité de nos utilisateurs, nous continuons à travailler sans relâche pour défendre tous nos clients », souligne Ivan Krstić, le responsable de la sécurité informatique de Apple.

D’une manière ou d’une autre, l’une des options les plus évidentes pour lutter contre cette faille de sécurité serait de permettre aux utilisateurs qui pourraient se sentir visés par le logiciel Pegasus, de soit bloquer l’application iMessage, soit la désinstaller. Bien évidemment une alternative qui porterait un grand coup à la société américaine qui verra là comme une défaite cuisante. « Si Apple pouvait trouver un moyen de désactiver complètement iMessage, ce serait formidable […] Des protections comme BlastDoor peuvent être ajoutées par-dessus, mais ça revient à renforcer un château de sable », souligne Patrick Wardle.

Accédez maintenant à un nombre illimité de mot de passe :

Découvrez nos logiciels de piratage

Sécurité iOS : Corellium propose d’analyser les iPhones, Apple contre VA EN poursuite judiciaire

Le lundi dernier, la société Corellium annonçait publiquement une subvention à hauteur de 15 000 dollars pour un programme visant à examiner de plus près le contenu des iPhones.

L’argument utilisé par la société est un renforcement de la confidentialité et de la sécurité des appareils iOS.

Cet article va aussi vous intéresser : 8 étapes pour savoir si votre iPhone est infecté par Pegasus

Voici entre autre la déclaration publique de Corellium à l’annonce de ce programme :

« Aujourd’hui, en l’honneur du quatrième anniversaire de Corellium, nous annonçons l’Initiative de sécurité ouverte de Corellium. Cette initiative soutiendra la recherche publique indépendante sur la sécurité et la confidentialité des applications et appareils mobiles grâce à une série de prix et à l’accès à la plateforme Corellium. »

« Plus que tout autre domaine de l’informatique, la sécurité dépend de l’existence d’une communauté de chercheurs importante, diversifiée et non officielle. Alors que les avancées dans des domaines tels que la conception de matériel informatique émerge souvent de laboratoires privés bien financés, la majorité des progrès en matière de cybersécurité au cours des dernières décennies sont venus de la « communauté de la recherche en sécurité », une communauté qui comprend non seulement des universitaires et des professionnels accrédités, mais aussi des hackers ou des amateurs. »

« Mener des recherches par des tiers sur les appareils mobiles reste difficile, inefficace et coûteux. En particulier dans l’écosystème iOS, les tests nécessitent généralement un appareil physique jailbreaké. Les jailbreaks reposent sur des exploits complexes, et ils ne sont souvent pas fiables ou disponibles pour les derniers modèles d’appareils et versions de système d’exploitation. »

« Chez Corellium, nous reconnaissons le rôle essentiel que jouent les chercheurs indépendants dans la promotion de la sécurité et de la confidentialité des appareils mobiles. C’est pourquoi nous recherchons constamment des moyens de rendre les recherches de tiers sur les appareils mobiles plus faciles et plus accessibles, et c’est pourquoi nous lançons la Corellium Open Security Initiative. »

« En tant que premier pilote de ce programme, nous lancerons un appel à propositions sur un sujet spécifique. Au fil du temps, nous évaluerons l’ajout de plus de sujets et plus de possibilités de récompenses. Si vous êtes intéressé à parrainer ou à collaborer avec nous sur cette initiative, veuillez nous contacter. »

« La communauté des chercheurs en sécurité joue un rôle central non seulement dans l’identification et la défense contre les menaces de sécurité, mais aussi dans la responsabilisation des éditeurs de logiciels quant aux déclarations de sécurité et de confidentialité qu’ils font à propos de leurs produits. »

À la suite de son discours, la société de recherche à lancé un mot à l’égard de la firme de Cupertino pour ces efforts consentis dans le domaine de l’avancée technologique. Car en effet, l’initiative de Corellium est inspirée fortement d’un programme du même genre lancé par Apple au cours de la semaine dernière.

« Pas plus tard que la semaine dernière, Apple a annoncé qu’il commencerait à numériser les photos téléchargées dans le service iCloud d’Apple pour le matériel d’abus sexuel d’enfants (CSAM). Laissant de côté les débats sur les implications civiles et philosophiques de cette nouvelle fonctionnalité, Apple a fait plusieurs déclarations de confidentialité et de sécurité à propos de ce nouveau système. Ces revendications couvrent des sujets aussi divers que la technologie de hachage d’image, la conception cryptographique moderne, l’analyse de code et la mécanique interne et la conception de la sécurité d’iOS lui-même. Des erreurs dans n’importe quel composant de cette conception globale pourraient être utilisées pour subvertir le système dans son ensemble et, par conséquent, violer les attentes en matière de confidentialité et de sécurité des utilisateurs d’iPhone. »

« Depuis cette annonce initiale, Apple a encouragé la communauté indépendante de la recherche en sécurité à valider et vérifier ses allégations de sécurité. Comme l’a déclaré Craig Federighi, vice-président directeur de l’ingénierie logicielle d’Apple dans une interview au Wall Street Journal, « les chercheurs en sécurité sont constamment en mesure d’introspecter ce qui se passe dans le logiciel [téléphonique] d’Apple, donc si des changements étaient apportés qui devaient étendre la portée de cela dans d’une certaine manière – d’une manière que nous nous étions engagés à ne pas faire – il y a une vérifiabilité, ils peuvent repérer ce qui se passe ». »

« Nous applaudissons l’engagement d’Apple à se tenir responsable vis-à-vis des chercheurs tiers. Nous pensons que notre plateforme est particulièrement capable de soutenir les chercheurs dans cet effort. Nos appareils virtuels « jailbreakés » n’utilisent aucun exploit et s’appuient plutôt sur notre technologie d’hyperviseur unique. Cela nous permet de fournir des appareils virtuels enracinés pour une analyse de sécurité dynamique presque dès la sortie d’une nouvelle version d’iOS. De plus, notre plateforme fournit des outils et des capacités qui ne sont pas facilement disponibles avec les appareils physiques. »

« Nous espérons que d’autres fournisseurs de logiciels mobiles suivront l’exemple d’Apple en promouvant la vérification indépendante des allégations de sécurité et de confidentialité. Pour encourager cette recherche importante, pour ce premier pilote de notre initiative de sécurité, nous accepterons des propositions de projets de recherche conçus pour valider toute revendication de sécurité et de confidentialité pour tout fournisseur de logiciel mobile, que ce soit dans le système d’exploitation ou des applications tierces. », déclare Corellium.

Le souci avec toute cette sortie, c’est qu’il a eu pour mérite d’irriter Apple. Situation qui était nettement prévisible en ce sens que tout le monde a toujours su que la société américaine basée à Cupertino déteste qu’on touche à son système d’exploitation

Et ce n’est pas la première fois qu’elle réagit de cette manière. Car encore une fois, Apple poursuit Corellium en justice.

Bien évidemment dans la communauté des spécialistes de la sécurité informatique ou du développement dans l’ensemble, le comportement de Apple est contesté comme d’habitude.

« Apple exagère la capacité d’un chercheur à examiner le système dans son ensemble », soulignait alors le directeur de la technologie à l’observatoire internet de Stanford, David Thiel, par ailleurs l’auteur du livre « iOS Application Security. Ce dernier mentionne le fait que la firme de Cupertino préfère dépenser beaucoup plus d’argent pour empêcher les chercheurs de faire le boulot : « Apple a dépensé des sommes considérables spécifiquement pour empêcher cela et rendre de telles recherches difficiles. Ils sont allés jusqu’à poursuivre une entreprise qui a rendu les choses trop faciles. Ce pivot est totalement fallacieux. Si Apple veut s’appuyer sur la communauté de sécurité iOS comme vérification indépendante, il doit cesser de traiter cette communauté comme des ennemis et nous laisser déverrouiller et examiner correctement les appareils. ».

Accédez maintenant à un nombre illimité de mot de passe :

Découvrez nos logiciels de piratage

Apple lance un programme de vérification de son système de sécurité destiné aux enfants

Il y a quelques semaines de cela la société de Cupertino avait informé le grand public quelle allait mettre en place un nouveau système destiné à l’identification des photos contenues dans iOS et dans les iPads.

L’objectif était de détecter à les images à caractère pédopornographique dans le but de lutter contre cette situation pour laquelle qu’elle avait été auparavant pointé du doigt pour son inactivité en ce sens. Selon les explications fournies par la société américaine, l’objectif est décrypté les photos et galerie en leur accordant un identifiant. De la sorte ses photos sur comparer avec une autre base de données provenant d’une ONG luttant contre la pédopornographie.

Cet article va aussi vous intéresser : Sécurité des données : Apple viole t-il ses propres règles en matière de vie privée ?

Apple a aussi parlé d’une possible évolution de cette technologie qui n’a autre que pour objectif de protéger les enfants contre cet aspect assez sombre de l’usage d’Internet. Les fonctionnalités seront déployées avec la mise à disposition de IOS 15, un déploiement qui est prévu pour le mois prochain. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l’ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la firme de Cupertino.

Le système de balayage est appelé NeuralMatch. Pour alerter d’une manière proactive une équipe de spécialistes dédié à cet effet pour consulter et vérifier si les images correspondent belle bien à la catégorie des images illicites. Dans la mesure où c’est le cas, les personnes dédiées à cet examen minutieux aurons la possibilité de contacter les forces de l’ordre.

La base de données qui sera utilisée pour ce projet se compose de 200 000 images issues du National Center for Missing & Exploited Children. Le déploiement commencera d’abord aux États-Unis pour ensuite toucher le reste du monde. La société de Cupertino a insisté sur le fait que les images seront hachées lors du balayage.

Apple explique pour chaque photo qui sera télécharger sur iCloud aux États-Unis, il lui sera imputé un bon de sécurité pour mentionner que celle-ci est suspecte. Dans la mesure où on nombre de photos est marquée comme suspectes, elles seront envoyées pour une analyse pratique donc déchiffrer pour que les autorités compétentes puis s’en servir. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a signifié l’entreprise en cherchant à rassurer sur la confidentialité des données de ses utilisateurs.

Bien évidemment cette initiative ne fait pas l’unanimité. Une division qui a même été observée au sein du personnel de Apple.

« Ce genre d’outil peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens… Mais imaginez ce qu’il pourrait faire entre les mains d’un gouvernement autoritaire », s’inquiète Matthew Green, professeur à l’université John Hopkins et cryptographe.

Par ailleurs d’autres spécialistes ont mentionné la possibilité que l’utilisation de cette technologie pour se détendre beaucoup plus qu’à la détection d’abus sexuel sur enfant. Il imagine la possibilité de pouvoir l’utiliser pour récupérer des images d’actes terroristes ou de signes anti gouvernementaux lors de manifestations publiques. Et pire encore d’autres plateformes pourraient être tentées par cette initiative. Cela pourrait peut-être même une pression de plus pour d’autres entreprises en ayant des portants donnés personnelles à leur gestion d’initier des actions similaires. « Les gouvernements l’exigeront de tous », note avec inquiétude le professeur Green.

Pour le chercheur en sécurité informatique et militant pour la protection de la vie privée, Alec Muffett, l’initiative de Apple était « « tectonique » et constituait un « pas énorme et régressif pour la vie privée ». « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », ajoute ce dernier.

Face à la montée de la grogne, la société de Cupertino reconnaît lors d’une interview accordée au Wall Street Journal, quelle avait mal géré cette communication pour exprimer son projet. Le responsable des logiciels chez Apple. Craig Federighi, déclarer à cet effet que la démarche à présenter des fonctionnalités au même moment était « une recette pour ce genre de confusion ». « Nous aurions aimé que l’annonce soit un peu plus claire pour tout le monde ».

De plus Apple a même mentionné la possibilité de faire vérifier sa technologie par des spécialistes externes. « Les chercheurs en sécurité sont constamment en mesure d’introspecter ce qui se passe dans le logiciel [téléphonique] d’Apple », a souligné Craig Federighi, lors interview au Wall Street Journal. « Donc, si des changements étaient apportés pour étendre la portée d’une manière que nous nous étions engagés à ne pas faire, il y a une vérifiabilité, ils peuvent détecter ce qui se passe ».

Pourtant Apple fait quelque chose qui s’oppose à cette déclaration, elle poursuit une société qui propose des logiciels qui permettent au chercheurs en sécurité de faire exactement cette vérification dont parle le vice-président de la société à la Pomme.

Accédez maintenant à un nombre illimité de mot de passe :

Découvrez nos logiciels de piratage

Sécurité des données : Apple viole t-il ses propres règles en matière de vie privée ?

Très récemment, le géant à la pomme expliquait son nouveau dispositif censé aider à la lutte contre la pédopornographie.

Il va consister entre autres scanner les appareils des utilisateurs d’iPad et iPhones dans le but de détecter les images compromettantes. Une atteinte à la vie privée qui ne passe pas pour tout le monde et risque de porter atteinte à l’image de marque que Apple s’est forgé depuis tant d’années.

Cet article va aussi vous intéresser : Affaire Pegasus : quand Apple essaie de rassurer les utilisateurs d’iPhone

« Apple a dévoilé, jeudi, des nouveaux outils afin d’identifier plus efficacement les contenus pédopornographiques sur ses appareils et services. Mais certains experts en sécurité informatique redoutent que ce dispositif n’ouvre la boîte de Pandore de la surveillance de masse. », explique Sébastian Seibt, Journaliste à France 24.

Comme on le sait de manière pratique, Apple a bâti sa réputation autour du respect de la vie privée et de la sécurité de l’utilisateur. Si l’initiative semble louable, et elle l’est, il n’en demeure pas moins qu’il pose notamment problème face à des utilisateurs de plus en plus regardant aux entorses à leurs intimités.

L’initiative de Apple se dénomme « NeuralMatch », est l’objectif derrière cette mesure est totalement sain. La lutte contre la pornographie infantile. Elle est censée débuter le mois prochain aux États-Unis, avec une mise à jour. Grâce à l’utilisation de l’intelligence artificielle et de la cryptographie, le géant américain veut analyser et scanner les photos stockées sur les iPhone et iPad de manière locale, Histoire de pouvoir détecter de potentielles pornographie infantile.

Apple a la possibilité de contrôler l’ensemble des images qui se trouve sur iCloud. C’est d’ailleurs le cas pour ses autres concurrents tels que Microsoft Dropbox et Google. À la seule différence des autres, la société américaine veut analyser les clichés qui sont contenus dans la mémoire locale d’iPhone. Si l’initiative est saluée notamment par Jim Clark le président de de la plus importante organisation de lutte contre l’exploitation des mineurs, le National Center for Missing and Exploited Children, il n’en pas pour tout le monde.

« L’initiative d’Apple peut changer la donne », souligne John Clark, lors d’une interview donnée Wall Street Journal. « Cet outil permet, en effet, à Apple de faire comprendre aux utilisateurs de ses appareils qu’ils ne peuvent avoir aucun jardin secret, même dans les plus sombres recoins de leurs smartphones. Toutefois, ce nouveau Big Brother serait le plus respectueux possible de la vie privée. L’algorithme ne regarde pas les images. Il réduit chaque fichier à un identifiant numérique – l’équivalent d’une empreinte digitale – et cherche une éventuelle correspondance dans le fichier des plus de 200 000 images d’abus sexuels sur mineurs du NCEM. », explique ce dernier.

De la sorte, si l’intelligence artificielle de Apple arrive à trouver une correspondance entre des clichés qui sont sur le disque dur de l’iPhone et sur la liste de l’organisation de défense contre l’exploitation des mineurs, ce dernier colis est envoyé automatiquement à un l’employé de Apple qui lui sera chargé de vérifier de manière claire si l’image est belle et bien de nature pédopornographique. Pour la société de Cupertino, son outil n’est pas du tout intrusif. « Si vous stockez une collection de photos d’abus d’enfants, vous aurez des problèmes, mais pour les autres, ça ne changera absolument rien », a signifié Erik Neuenschwander, le responsable chargé des questions de protection de la vie privée pour Apple, lors d’une interview accordée au le New York Times. Ce nouvel outil « est clairement fait pour rassurer les autorités et donner des gages de bonne volonté aux forces de l’ordre », a précisé Riana Pfefferkorn, une spécialiste des questions de surveillance informatique à l’Observatoire de l’Internet de l’université de Stanford, durant une table ronde entre plusieurs spécialistes de la sécurité consacré à l’annonce de l’initiative de Apple.

Apple veut sûrement changer les choses lorsqu’on c’est que en 2019 une enquête a démontré qu’il était bien loin derrière plusieurs de ses concurrents en matière de lutte contre la pédopornographie. « En 2019, Facebook a signalé 15,8 millions contenus pédopornographiques, contre 205 pour Apple. Il y a clairement un problème de sous-évaluation du nombre d’images illégales qui circulent grâce aux services d’Apple », explique Casey Newton, un célèbre journaliste américain spécialisé dans le secteur des nouvelles technologies.

Ce n’est pas tout, le géant américain se prépare a annoncé le déploiement de chiffrement de bout en bout pour renforcer la protection des données sur iCloud dans les prochains mois. En d’autres thèmes même Apple ne pourra pas lire le contenu de ces données. « C’est une décision très attendue, et l’annonce qui vient d’être faite peut-être une manière pour Apple de rassurer les autorités en leur faisant comprendre qu’il sera toujours possible de repérer des contenus illégaux malgré le chiffrement », explique Riana Pfefferkorn.

Cependant l’initiative de lire le contenu local d’iPhone et iPad inquiète plus d’un spécialiste.

« C’est un dispositif épouvantable qui va inévitablement transformer nos ordinateurs [MacBook, NLDR], iPhone et iPad en outil de surveillance massive », déclare Ross Anderson, un expert de la sécurité informatique à l’université de Cambridge.

« C’est comme ça que la surveillance électronique s’installe. D’abord pour les motifs les plus nobles, puis pour traquer les images d’armes à feu, puis trouver les photos de manifestations, puis les captures d’écran de discussion au sujet de manifestation, etc », s’inquiète, John Hamasaki, un avocat américain spécialiste du droit pénal.

En d’autres termes, Apple aurait commis un faux pas, en développant une intelligence artificielle capable de scanner des photos directement dans les iPad et l’iPhone.

« Dorénavant, il suffit de changer quelques paramètres dans l’algorithme pour lui permettre de trouver d’autres types de photos », note l’Electronic Frontier Foundation, une ONG américaine de lutte pour la protection de la vie privée en ligne.

« Les gouvernements, y compris celui des États-Unis, vont inévitablement demander à Apple d’adapter ce dispositif à la lutte contre le terrorisme. Et on sait à quel point cette notion peut avoir des sens différents d’un pays à un autre », alerte David Thiel, directeur technique de l’Observatoire de l’Internet de Stanford.

« Je peux très bien m’imaginer que le lobby de la musique et du film exige d’Apple d’adapter cette technologie pour chercher des fichiers qui violeraient les droits d’auteur », souligne Riana Pfefferkorn.

« Vous avez intérêt à avoir confiance en la direction d’Apple de ne jamais céder à toutes ces demandes. Car dorénavant, la confiance est tout ce qui nous reste pour éviter les dérapages de cette technologie », déclare avec regret, Matthew Green, un chercheur en cryptographie à l’université John Hopkins de Baltimore.

Dans l’attente de ce qui peut arriver par la suite, on attend tous le déploiement de cette nouvelle technologie.

Accédez maintenant à un nombre illimité de mot de passe :

Découvrez nos logiciels de piratage