Archives par mot-clé : elearning

L’intelligence artificielle peut-elle venir au secours de la cybersécurité ?

Il faut reconnaître que l’intelligence artificielle et le machine learning ont beaucoup affecté le paysage de l’informatique ces 5 dernières années.

Leur apparition a été synonyme de beaucoup de changements, d’évolution mais aussi d’espoir. Leur intervention dans la sécurité informatique a peut-être été le coup de pouce qui était tant attendu depuis longtemps. Ce qui fait que pour le moment, l’intelligence artificielle est la star du paysage IT. Pour le média Forbes, c’est l’avenir de la cybersécurité. Le Gartner la classe dans le top 10 des tendances technologiques 2019-2020.

Cet article va aussi vous intéresser : L’intelligence artificielle engagée dans la lutte contre les discours haineux

Une telle importance accordé à cette technologie impacte grandement la conviction des professionnels de la sécurité informatique. Dans une étude récente fournie par la Capgemini Research Institute et menée auprès des cadres supérieurs dans le secteur de la cybersécurité, il a été révélé que :

– 69% , donc plus de un tiers des entreprises pense ne pas être en mesure de contrer une attaque informatique sans l’aide de l’intelligence artificielle.

– 69% ont déclaré que l’intelligence  Artificielle rend la détection des malwares et actes de cybermalveillance, plus précise et efficace.

– 60% des professionnels ont estimé qu’elle permet de renforcer l’efficacité du travail des analystes en sécurité, car elle aide à réduire le temps que ces derniers consacrent à analyser des faux positifs, ce qui les rend plus productif.

– 2020, plus de 70% des entreprises compte procéder à un déploiement  de système d’intelligence Artificielle.

Cependant, une question se pose : les capacités de l’intelligence artificielle ne sont-elles pas en train d’être surestimer ?

Pour les spécialistes de la spécialistes, sont rôle dans le secteur de sécurité est indéniable. « L’IA et ses domaines associés, à savoir le Machine Learning, le traitement en langage naturel et l’automatisation des processus robotiques, sont peut-être des termes  tendances aujourd’hui, mais le phénomène n’a rien de nouveau dans le monde de la cybersécurité (…) Le filtre anti-spam par exemple, est l’une des premières occurrences du Machine Learning, remontant au début des années 2000. Au fil des années, le niveau d’analyse de cet outil est passé du filtrage de certains mots à l’analyse précise d’URL, de domaines, de pièces jointes, etc. ». Expliquait Martin Mackay, Vice-Président Europe chez Proofpoint. Il continue ses développements en ces termes :  « Mais ce sont les derniers développements en matière d’IA qui attirent l’attention du secteur. Et pour cause. L’IA a fait de grands progrès, contribuant à la défense de toute une série de vecteurs de menace tels que la détection de la fraude, des logiciels malveillants, des intrusions, le calcul des risques et l’analyse du comportement des utilisateurs et des machines, étant les cinq principaux cas d’utilisation. Ces utilisations sont d’ailleurs de plus en plus courantes : les recherches de Capgemini ont montré que plus de la moitié des entreprises ont déjà mis en œuvre au moins cinq cas d’utilisation à fort impact. »

Mais doit-on accorder suffisamment de crédit à l’intelligence artificielle pour cela. ? Car, s’il est indéniable aujourd’hui que cette technologie a son utilité dans le secteur de la sécurité informatique, l’on ne se demande pas, du moins pas suffisamment, quels pourraient être ses inconvénients. C’est d’ailleurs pour cette raison que Martin Mackay rappelait ceci : « Malgré tous ses mérites, l’IA n’est pas l’unique sésame à employer face aux cybermenaces.

Ses capacités à réaliser des analyses approfondies et dans des délais beaucoup plus courts que l’homme ne se substituent pas pour autant à l’importance d’une intervention humaine. ». C’est pourquoi, il serait préférable de voir cette technologie comme étant un simple outils, aidant dans les équipes de sécurité informatique et non le moyen qui est censé les remplacer. Car c’est comme ça qu’on pourra construire une cyberdéfense très robuste. La technologie et l’humain doivent s’unir. En effet « Une étude récente du Massachusetts Institute of Technology (MIT ) a montré qu’une combinaison d’expertise humaine et de systèmes de Machine Learning – appelée « Machine Learning supervisé » – est beaucoup plus efficace que les humains ou le ML seuls. Le modèle supervisé est même jusqu’à dix fois plus performant que son équivalent en ML seul. » notait Martin Mackay. Car si l’intelligence artificielle est suffisamment compétente pour stopper plusieurs types des Cyberattaques, il n’en demeure pas moins qu’elle reste totalement inefficace face à d’autre, par exemple l’ingénierie sociale a travers la célèbre fraude au président. Dans ce contexte « L’IA reste un outil puissant pour renforcer les politiques de cyberdéfenses mais ne peut être considéré comme l’unique remède de toutes les menaces existantes. » concluait l’expert.

Accédez maintenant à un nombre illimité de mot de passe :

Découvrez nos logiciels de piratage

La DARPA prête à investir des millions pour son programme « Guaranteeing Artificial Intelligence Robustness Against Deception (GARD) »

Bruce Draper, le responsable du programme GARD de la DARPA déclarait ceci dans un communiqué : « Parce que nous ne sommes pas convaincus que nous trouverons nécessairement la défense parfaite, nous essayons de faire avancer la théorie et de trouver quelles en sont les limites. Nous allons essayer de défendre du mieux que nous pouvons, de rendre aussi invulnérables que possible, mais nous voulons aussi avoir suffisamment de connaissances théoriques pour développer la théorie de telle sorte que nous puissions dire aux gens, lorsqu’ils déploient un système intelligence artificielle, dans quelle mesure il peut être vulnérable ou non ». Très clairement, il expose les ambitions de l’agence américaine à travers ce projet grandiose dont nous allons parler dans cet article.

Cet article va aussi vous intéresser : L’intelligence artificielle engagée dans la lutte contre les discours haineux

Mais avant de commencer interrogeons nous de savoir ce qu’est le projet » Guaranteeing Artificial Intelligence Robustness against Deception » en abrégé GARD. En clair, « Il s’agit d’une initiative de plusieurs millions de dollars sur quatre ans qui vise à créer des défenses pour des capteurs, basée sur l’intelligence artificielle (programmes de reconnaissance faciale, outils de reconnaissance vocale, voitures à conduite autonome, logiciels de détection d’armes…). » explique la chroniqueuse Nancy Rey. En d’autres termes, c’est un programme visant à créer un système informatique ultime servant à la défense des structures numériques des États-Unis. Le bouclier défense totale contre les cyberattaques et autres risques. Ce programme a été annoncé depuis le mois de février par La Defense Advanced Research Projects Agency abrégé DARPA une branche du Département de la Défense américaine qui s’est spécialisée dans le développement de projets et technologies pouvant avoir un usage militaire.

En d’autres termes, ce n’est pas un outil qui sera installé votre smartphone. Même si le développement d’un tel projet, s’il réussit pourrait avoir un impact considérable sur le combat qui se mène actuellement sur le terrain de la cybercriminalité Vs Cybersécurité. Le projet GARD (qui peut se traduire littéralement par « garantir la robustesse de l’IA contre les tromperies ») vise à mettre en place un programme informatique qui pourrait se muer en une sorte de « Système immunitaire » pour les infrastructures et technologies fondées sur des systèmes automatisés. En tout cas c’est comme cela que le manager du programme, le Dr. Hava Siegelmann, de la DARPA, l’appréhende : « ce système pourrait s’apparenter au système immunitaire humain. En effet, le système immunitaire identifie les attaques, les neutralise et garde en mémoire ces attaques pour créer des réactions plus efficaces en cas de nouvelle offensive. Il pourrait donc s’agir d’un système de Machine Learning au sein d’un autre système de Machine Learning, entièrement dédié à la protection. L’objectif est de s’assurer que les systèmes ML soient sûrs et impossibles à tromper ».

Et pour réussir son pari, l’agence américaine est prête à collaborer avec plusieurs spécialistes de divers domaines tel que la cybersécurité, le Big data, l’intelligence artificielle etc… Parmi les heureux élus, on peut citer notamment Intel, l’université Johns Hopkins, le MIT, Georgia Tech, l’université Carnegie Mellon, le centre de recherche Almaden d’IBM et SRI International. le projet sera dirigé par le fabricant de processeur Intel en partie, en collaboration avec Georgia tech.

Le projet sera organisé autour de trois pôles majeurs. Le premier pôle aura la tâche d’étudier les fondements théoriques de potentielles attaques contre l’intelligence artificielle qui sera développée. Le second lui se chargera de construire les défenses. Quant au troisième, sa tâche sera d’évaluer l’ensemble du travail une fois terminé. Pour accroître les chances de réussite, il est prévu un test de l’ensemble des défenses qui seront construits tous les 6 mois.

Ce projet ambitieux, pourrait révolutionner notre appréhension de l’intelligence artificielle. « La DARPA veut rendre le Machine Learning impossible à tromper.

Ensemble, les deux entités (Intel et la DARPA) travailleront à faire avancer la compréhension collective de l’écosystème et la capacité à mitiger les vulnérabilités de l’IA et du ML » souligne Jason Martin d’Intel. Par ailleurs, ingénieur principal pour le programme GARD. « Nous collaborons sur une approche pour améliorer la détection d’objets et renforcer la capacité des systèmes de machine learning à répondre à des attaques contradictoires », ajoute-t-il.

Accédez maintenant à un nombre illimité de mot de passe :

Découvrez nos logiciels de piratage