Archives de catégorie : Réseaux

Les réseaux informatiques ne sont pas aussi sécurisé que l’on peut le croire. Il existe toujours des failles de sécurité et cela fait toujours couler de l’encre dans les sujets d’actualité.

FaceApp: la controverse sur une application trop populaire.

Le phénomène FaceApp inonde les réseaux sociaux depuis un certain temps déjà.

Les accros au défi ont joyeusement commencé à se donner à l’utilisation de cette application. Toutefois, cette application semble être pour sa société un moyen de collecte illégale de données.

Vous pouvez également aimer: Comment devenir un hacker?

Qu’est-ce que FaceApp ?

FaceApp (FaceApp) permet aux utilisateurs de voir à quoi ressemblera leur visage quand ils vieilliront. là est un résultat impressionnant. L’application implique également de nombreux filtres capables non seulement de vous transformer en une fille ou un garçon, mais aussi ajouter sur votre image beaucoup d’autres choses. À l’utiliser, vous n’avez qu’à prendre une image de votre bibliothèque instantanée et un filtre dessus. Ensuite, vous avez le choix d’enregistrer le résultat ou de partager il. C’est l’application à la mode. Propulsé par des célébrités, Faceapp vous permet visualisez-vous dans votre vieillesse.

Pour cela, FaceApp n’a besoin que d’un accès complet aux photos que vous acceptez de l’envoyer. C’est en effet présent dans le CGU de FaceApp : une fois qu’un instantané est envoyé à l’application, ce dernier peut le réutiliser pour produire un nombre indéterminé de résultats. À première vue, l’application semble avoir des conditions d’utilisation similaires aux autres applications photo. Bien que l’application soit rémunérée avec un abonnement version pro à environ 19 $ par année, les photos recueillies peuvent être utilisées à des fins commerciales.

Cependant, depuis un certain temps maintenant, FaceApp est au centre de controverses sur les collectes massives illégales de données. En fait, l’application est accusée d’avoir volé les photos des utilisateurs à des fins peu fiables.

Ce point de vue a été vérifié acheter plusieurs sites d’information et des experts. Le résultat est que FaceApp n’a pas eu moins de privaces que les autres applications photo, ils sont tous les mêmes. FaceApp (FaceApp) télécharge uniquement les photos que vous sélectionnez sur ses serveurs avec votre consentement et ne n’ont pas d’accès direct aux instantanés de votre bibliothèque mobile.

Propos recueillis par la BBC Nouvelles, Gontcharov patron de la firme qui a fait l’application, a fait valoir que FaceApp ne ne pas revendre les données qu’il recueille à des fins commerciales. L’application est gratuit, de sorte que l’entreprise ferait des bénéfices que par le biais de l’abonnement premium qu’il offres, selon lui.

On s’est également demandé à quoi serviront les photos recueillies par les serveurs de données de l’entreprise. En tant que membre de l’entreprise, l’éditeur Wireless Lab OOO, basé en Russie, explique qu’une fois téléchargées, les photos traitées par ses filtres pourraient être réutilisées sans l’accord des utilisateurs tel qu’indiqué dans les conditions d’utilisation. Quant au Figaro, ces conditions d’utilisation ne sont pas conformes aux règles européennes sur l’utilisation de l’ordinateur et les privacies de personnes.

Face à ces accusations, l’entreprise a expliqué au site que la plupart des images collectées sont supprimées de ses serveurs dans les 48 heures suivantes et ajoute qu’il est même possible pour un utilisateur de demander directement la suppression de ses données à l’équipe de support via un formulaire. Pour les penseurs, ces arguments sont contradictoires avec le temps opérationnel que l’IA (Intelligence Artificielle) de FaceApp exige pour le traitement des données nécessaire à l’amélioration de l’application. Ensuite, il semble évident que les données collectées restent beaucoup plus longtemps sur les serveurs que l’entreprise ne dit pas.

Obtenir une visibilité en préservant sa sécurité

L’architecture réseau se présente comme un ensemble de cadre et de format du réseau d’une entreprise.

Selon les spécialistes elle est composée de logiciels, de câblages, de matériels, des outils de sécurité et de surveillance sans oublier le nombre conséquent de dispositif virtuel et physiques qui serait connecté soit par câble ou par des méthodes sans fil, ajouté à cela dorénavant, les applications Cloud.

Cet article va aussi vous intéresser : La maintenance informatique à l’épreuve de la sécurité des réseaux

Pourtant, lorsqu’on évoque l’idée de rendre une architecture réseau beaucoup plus visible, cela porte à des interrogations assez inquiètes. Pourtant on ne peut pas dire qu’en réseau est complet si son architecture n’est pas visible, surtout dans un partenariat qui exige de la confiance. Or cela passe après on est autrement. Selon Barb Rigle, Responsable marketing produit senior de Keysight Technologies, il faut voir l’architecture de visibilité réseau « comme une police d’assurance supplémentaire, qui offre une couche de sécurité additionnelle et une tranquillité d’esprit tout en améliorant les performances de votre réseau. ».

« Une architecture de visibilité du réseau comporte une couche d’accès utilisant des dispositifs tels que des prises réseau et des ports SPAN pour collecter les données brutes circulant sur le réseau. Les courtiers en paquets réseau (NPB) se situent au niveau de la couche de contrôle et fournissent un filtrage intelligent des données et des fonctionnalités logicielles telles que l’équilibrage de charge, le décryptage SSL, le masquage des données, la déduplication et le découpage des paquets. Les NPB sont en quelque sorte des agents de la circulation, qui veillent à ce que les bonnes données soient envoyées au bon outil au bon moment. La couche de surveillance regroupe les outils de surveillance et de sécurité du réseau. Les entreprises disposent généralement de plusieurs outils assurant diverses fonctions. Mais la performance des outils dépend des données qu’ils reçoivent. », explique ce dernier.

En somme, une architecture de visibilité du réseau offre l’avantage de :

– De mettre à nu les angles morts et de les éviter ;

– De réduire les coûts de gestion tout en augmentant le retour sur les investissements ;

– Rendre beaucoup plus simple la gestion de réseau.

« En termes d’architecture de visibilité, il n’y a pas de modèle unique et chaque conception doit répondre aux exigences spécifiques du réseau d’une entreprise et à sa stratégie commerciale globale. Néanmoins, tous les modèles d’architecture de visibilité permettent de réduire les coûts du réseau sans compromettre les performances ou la sécurité. », souligne Barb Rigle.

Sous un certain point de vue on pourra lui accorder un peu de raison. En effet en regardant de manière objective, on peut facilement se rendre contre que les outils déployés pour la surveillance et la sécurité des réseaux présentent un coût élevé. Dans notre contexte actuel les budgets dans la matière s’en trouvent assez restreint. Alors que l’architecture de visibilité permet de pallier à ce problème en réduisant les coûts du réseau. Elle permet aussi d’allonger la durée de vie de certains outils tout en améliorant leurs performances sur le long terme.

Pour parvenir à ce résultat il existe différents moyens dont :

– Le filtrage intelligent des données qui est effectué par une NPB et le logiciel associé. Cela permet de réduire de manière considérable la quantité de données qui ne sert à rien et qui ralentissent le fonctionnement de certains outils. Conséquences immédiates : ces outils deviennent beaucoup plus efficaces.

– La déduplication : elle permettra d’augmenter la précision et l’efficacité des outils

– La fonction de répartition de charge : qui permettra de répartir « les charges 40/100 Gigabit Ethernet (GE) sur plusieurs outils à plus faible débit afin de prolonger la durée de vie des outils qui ne prennent pas en charge des débits plus élevés. », comme l’explique Barb Rigle.

– « La suppression d’en-têtes permet à une NPB de supprimer facilement les en-têtes de paquets IP inutiles, ce qui évite à vos outils d’être surchargés et d’avoir un impact négatif sur les performances et la sécurité. », ajoute le spécialiste.

– La protection étendue pour lutter contre les surcharges se sert de la mise en mémoire tampon pour corriger les retards des paquets, pour que les NPB voient tous les paquets et même dans des situations de micro-surcharge, ce qui aidera à protéger et sécuriser les données de surveillance à tout moment.

Pour finir, « La gestion centralisée à partir d’un point unique et d’une interface utilisateur graphique (GUI) facile à utiliser par glisser-déposer réduit considérablement le temps de dépannage et le temps moyen de réparation (MTTR). Cette vue unifiée de l’ensemble du trafic réseau simplifie également la surveillance. En créant une architecture de visibilité, vous pouvez voir clairement tout le trafic et toutes les inefficacités ou angles morts qui existent dans votre réseau. », note Barb Rigle.

Accédez maintenant à un nombre illimité de mot de passe :

Découvrez nos logiciels de piratage

Protéger ses sous-domaines pour éviter leur compromission

Les sous domaine sont très délicats à gérer et la prise de contrôle peut avoir un impact significatif sur la crédibilité ou l’image d’une entreprise.

En particulier, c’est généralement un problème de DNS et malheureusement ce genre de situation perdure et se multiplient de plus en plus. On peut le dire avec certitude, les sous-domaines sont de plus en plus prie d’assaut et les pirates informatiques se rendre compte qu’il y a une opportunité à en tirer face à la négligence professionnelle du secteur.

Cet article va aussi vous intéresser : Un mot de passe compromis serait la porte d’entrée de pirates informatiques dans le réseau de Colonial Pipeline

Comme on le sait, toute entreprise qui a un site internet a également ce qu’on appelle des sous domaine. Ce sont des outils nécessaires qui permettent organiser le contenu disponible sur le site Internet ainsi que le service à proposer aux visiteurs, de sorte à les maintenir d’une certaine manière. Certaines grandes entreprises peuvent posséder des milliers et des milliers de sous domaines. De façon pratique, à cause de leur importance, les pirates informatiques ne cessent de s’y intéresser. Plusieurs situations ont permis de démontrer que les sous-domaines peuvent-être des sources d’attaques supplémentaires. L’exemple de Warner Bros, Honeywell, Chevron et 3M sont des exemples palpables qu’il faut prendre comme illustration de cette situation.

Le plus souvent les pirates informatiques détournent ces sous-domaines pour rédiger les internautes vers des sites de jeux en ligne illégaux, des activités douteuses ou encore de la pornographie en ligne.

À ce propos, TechRadar écrivait : « C’est un problème récurrent pour les sites hébergés par Azure ».

Le site spécialisé ici faisait référence à ce qui s’est passé durant le mois de mars. Durant cette période le service d’alerte des failles de sécurité et aux exploits avait signifié avoir découvert près de 670 sous domaines de Microsoft étant totalement vulnérables seulement après un scan automatisé. Une telle situation qui serait selon le services d’alerte causée par de mauvaises pratiques du géant américain en matière de gestion de nom de domaine (DNS).  À préciser que Microsoft à lui seul possède plus de 100 000 noms de domaine.

 Quand les pirates informatiques réussissent à réunir les privilèges nécessaires pour accéder à un système informatique, en passant par le contrôle du sous-domaine, ils ont la possibilité d’exfiltrer d’énormes base de données. Ils peuvent aussi espionner le trafic des données voir cloner les sites web vulnérables.

C’est pour cela que les spécialistes demandent de faire attention à ce genre de menace informatique car de manière pratique, il serait impossible de détecter une attaque affectant le sous-domaine. En d’autres termes, s’il est détourné, vous ne le saurez pas. Votre entreprise est alors vulnérable à tout type d’attaque informatique.

« Outre les erreurs de configuration du DNS, les sous-domaines peuvent être exploités s’ils sont attribués à des utilisateurs indignes de confiance », précisent des chercheurs De l’Université technologique de Vienne. « Les entrées de DNS non résolues », c’est-à-dire les entrées pointant vers des ressources expirées, peuvent être prises en charge par des parties non autorisées. Les services tiers interrompus peuvent également permettre de s’introduire dans un système. », notent ces derniers. Ces derniers n’ont pas manqué de préciser que la conséquence des attaques ciblant les sous-domaines peut-être extrêmement graves. Surtout dans l’éventualité où les sous-domaines de DNS sont sous le contrôle des pirates informatiques. Ces cybermalveillants auront alors l’opportunité de pouvoir détourner des sessions, réaliser des attaques par fixation de session. Ils pourront aussi contourner les sécurités déjà établies du Web, sans oublier la possibilité d’organiser d’immenses campagnes de phishing avec une facilité déconcertante. Les possibilités dans ce cas de figure sont tellement nombreuses qu’il est possible d’en faire une liste exhaustive pour le moment.

Bien sûr les chercheurs n’ont pas manqué sur leurs sites web de donner quelques conseils nécessaires pour réduire la menace au maximum. Il commence d’abord par donner des topos concernant la manière de découvrir comment savoir si les sous domaine sont vulnérables ou potentiellement vulnérables. De ce fait ils proposent de « passer en revue toutes les entrées de DNS de type CNAME pointant vers des domaines externes, ainsi que toutes les entrées A/AAAA pointant vers des adresses IP qui ne sont pas directement contrôlées par l’entreprise, par exemple celles des fournisseurs de services et de cloud.  Si les liens ne sont plus actifs, il faut supprimer les entrées de DNS correspondantes ».

Si l’intention est de protéger les applications Web contre de potentiel les exploitations des cybercriminels, les développeurs web en particuliers devront « établir des politiques de sécurité selon le principe du moindre privilège, c’est-à-dire restreindre la surface d’attaque autant que possible ».  Il est clair, « qu’en limitant la surface d’attaque autant que possible on réduit le risque. ». Il faudrait « envisager l’usage du préfixe de cookie __Host- si les cookies définis par l’application Web n’ont pas besoin d’être partagés avec d’autres domaines connexes ».

Accédez maintenant à un nombre illimité de mot de passe :

Découvrez nos logiciels de piratage

La maintenance informatique à l’épreuve de la sécurité des réseaux

Nous avons vu les cybermenaces évoluer dans le temps.

Avec l’explosion de la numérisation des services et la popularisation de l’outil informatique dans presque tous les domaines de la vie courante, les entreprises se trouve face à beaucoup plus de difficultés qu’elles ne l’avaient prévues dès le début. En effet avec la multiplication non négligeable des cyberattaques, à cause de plusieurs situations particulièrement la pandémie à coronavirus, elles sont les premières à subir les effets néfastes liés à la digitalisation croissante.

Cet article va aussi vous intéresser : 2 mesures pour protéger le réseau informatique de son entreprise

Avec le télétravail et l’exposition des réseaux informatiques d’entreprise à cause du télétravail, les enjeux en matière de sécurité de réseau s’en trouvent totalement bouleversés. Et cela implique une nouvelle manière d’observer la question de maintenance informatique.

« Les entreprises sont les premières à en subir les conséquences à travers leur réseau informatique. Avec la pandémie de la covid-19, elles ont pour la plupart accélérer leur transition numérique pour répondre aux besoins de télétravail. Dans ce contexte, les dirigeants d’entreprise se doivent de connaître les nouveaux enjeux en matière de sécurité des réseaux. Cela leur permet de trouver et d’adopter des solutions efficaces à travers la maintenance informatique. », peut-on lire dans un document publié par Lyon Entreprises.

Plusieurs domaines dans le secteur informatique inquiètent. Parmi lesquels occupe la première position le Cloud. Mais il y en a bien d’autres qu’il faut préciser. « Pour limiter la propagation du virus tout en continuant leurs activités, certaines entreprises ont opté pour le télétravail. Les hackers en ont profité pour mener plusieurs attaques contre les réseaux informatiques d’entreprises vulnérables », note Olivier Dedieu, premier responsable d Lyon Entreprises.

Selon les chiffres fournis par l’Agence nationale de sécurité des systèmes d’information, les attaques informatiques basées sur les ransomwares ont connu une hausse de 255 % seulement en 2020. Les organisations les plus affectées par sur boom de rançongiciels sont notamment les collectivités publiques et les entreprises. Cela s’explique maintenant par le fait que le basculement vers le télétravail a été précipité et non préparé d’avance.

Vu sous cet aspect il y a quelques points sur lequel il faudra particulièrement faire attention et s’organiser du mieux possible pour réduire au maximum les vulnérabilités.

1- L’Internet des objets

L’Internet des objets est comme son nom l’indique une méthode d’établissement de lignes entre un environnement informatique particulier et des objets qu’on utilise au quotidien et ce par le biais de l’Internet. Grâce au développement de l’Internet des objets, il est possible aujourd’hui de tout contrôler dans sa maison grâce à un smartphone. Grâce à cela plusieurs applications continuent d’être développées pour améliorer l’expérience d’utilisateur. Malheureusement, cela accroît aussi les failles de sécurité. Particulièrement dans le secteur des objets connectés, les spécialistes ont tendance à marquer le fait que les vulnérabilités sont croissantes. Les cybercriminels, le savent et à plusieurs reprises ont démontré qu’ils peuvent en profiter. « L’employé qui est en télétravail et qui a un tel dispositif chez lui expose ainsi les données de son entreprise. Il devient ainsi nécessaire de sécuriser ces objets au même titre que votre ordinateur. Cette tâche est généralement confiée à des experts tels que l’entreprise d’informatique Landvart, expérimentée dans la gestion de réseaux informatiques d’entreprises. Ces professionnels interviennent partout en France, notamment dans les grandes métropoles comme Paris et Lyon. » explique Olivier Dedieu.

2- L’intelligence artificielle

un système de neurones connectés intelligence artificielle

C’est de loin l’une des plus grandes innovations en matière informatique. Elle a permis beaucoup d’avancée technologie qui permet de résoudre beaucoup de problèmes aujourd’hui. À l’inverse, l’intelligence artificielle se présente un peu malgré les efforts comme un outil capable de se retourner contre les organisations qu’elle est censée aider. En effet grâce à l’intelligence artificielle, il est devenu beaucoup plus facile pour les pirates informatiques d’usurper les identités de personnes importantes et mener des actes de cybermalveillance de grande ampleur tel que la fraude au président. L’illustration même est la pratique du deepfake, qui a sensiblement fait augmenter le taux d’hameçonnage dans le monde.

3- Les réseaux sociaux

Le trafic engrangé par les réseaux sociaux par jour est tout simplement énorme. À cause de cet important flux d’échanges, les entreprises sont présentes et en profite pour faire au maximum leur marketing. Et cela y comprit leurs employés qui ils sont pour diverses raisons. Les réseaux sociaux se constituent aujourd’hui comme d’importantes sources d’informations qu’utilisent les cybercriminels pour opérer. En effet, ils peuvent recueillir des informations qui à la base semble anodine mais suffisantes pour les cybercriminels. Cela peut-être par exemple le nom de l’employé ou de la personnalité ciblée, son numéro de téléphone ou adresse géographique ou boîte postale. Cela peut-être aussi sa date de naissance ou l’entreprise qui l’emploie ou dans laquelle il travaille. Des informations précieuses pour des campagnes de phishing à grande échelle. Par ailleurs, grâce aux réseaux sociaux, il est encore plus facile pour ces derniers d’initier l’hameçonnage en propageant plus facilement les liens vérolés.

Accédez maintenant à un nombre illimité de mot de passe :

Découvrez nos logiciels de piratage

S’adapter à la 5G et les menaces informatiques qui peuvent en découler

Dans un contexte ou la fameuse technologie 5G est en train d’être déployée de plus en plus, les entreprises et les organisations publiques et non gouvernementales s’exultent des avantages que pourrait apporter ce nouveau aussi en matière de télécommunication.

Les promesses en à l’égard de ce nouveau réseau sont assez grand. Cette 5e génération est censée apporter beaucoup plus que les générations précédentes. Pourtant, cette hâte qu’ont les différentes organisations et opérateurs à vouloir migrer rapidement vers la 5G sont souvent fonction d’un oubli important. Celui du risque informatique. En effet si la connectivité doit être améliorée avec la 5G, cela signifie que les menaces seront beaucoup plus pertinentes et beaucoup plus difficiles à gérer.

« Pourtant, la 5G est une arme à double tranchant, puisque les opportunités qu’elle laisse entrevoir n’ont d’égales que les cyber risques qu’elle induira sur ses utilisateurs. », s’inquiète Laura de Corral, Ingénieure de Comptes chez FM Global

Dans ce contexte on s’est interrogé alors de savoir quels pourraient être les risques que pourraient favoriser l’avènement de la 5G et comment se préparer à les affronter.

« La crise sanitaire a indéniablement entrainé une hausse de la cyber criminalité, en touchant de nombreuses entreprises, publiques ou privées. De nombreux systèmes sont d’ores et déjà soumis à une pression accrue avec le recours massif au télétravail. Un tel contexte peut laisser les entreprises vulnérables, mais fait également office de répétition générale face à l’arrivée de la 5G. », explique Laura de Corral. « Car la 5G est indissociable du cyber risque. A travers elle, les pirates peuvent en effet manipuler tout IoT par l’intermédiaire d’un centre de commande avec lequel ils peuvent prendre le contrôle de plusieurs appareils depuis un système unique. Une pratique qui, si elle réussit, peut générer des attaques par déni de service distribué (DDoS). Toute gestion centralisée pourra ainsi entraîner l’indisponibilité des systèmes et des réseaux non préparés aux grandes quantités de trafic dont les cybers attaquants pourront disposer à leur guise. », ajoute cette dernière.

« En somme, l’intensification des interconnexions réseau génèrera mécaniquement un moyen de pression potentiel pour les cybercriminels, la 5G exposant davantage de dispositifs à des attaques, qui, selon le type de dispositifs ICS gérés, peuvent causer des dommages importants. », précise l’ingénieure.

Dans ce contexte interrogeons nous. Quelles sont les stratégies que nous pouvons adopter alors face à cette situation ?

La première approche va consister à une évaluation profonde des risques et à un développement de la pro activité. Laura de Corral explique à cet effet : « les fondements d’une stratégie cyber-résilience face aux risques induits par la 5G, être assuré contre les cyber-attaques ne suffit pas. Aujourd’hui, il est également indispensable de protéger de manière proactive et préventive ses données contre les cyber-risques : c’est ce qu’on appelle la cyber-résilience. Dans ce cadre, une évaluation des risques est d’abord essentielle en vue d’identifier les risques dans les trois domaines clés suivants, avant de définir des mesures claires. ».

Parmi les mesures à adopter, en première position, le contrôle des accès. Il va concerner ici le fait d’empêcher que toute personne qui n’est pas autorisée à accéder à des données numériques ou à un espace de travail numérique puisse le faire. Pour s’assurer de cela il faudrait alors mettre en place des visites de prévention dans le but de déterminer qui pourrait bien avoir accès à tel ou tel site et comment gérer ses accès.

La seconde mesure va concerner la sécurité de l’information. « En collaboration avec le Risk Manager et le service informatique d’un client, il est ensuite essentiel d’évaluer les risques auxquels sont exposés ses données, logiciels et droits de propriété intellectuelle. Ces précieuses informations permettent de fournir une vision complète et détaillée de la qualité des risques, ainsi que le degré de résilience. », souligne Laura de Corral.

« Contrairement à une approche traditionnelle, cette stratégie globale exige une connaissance approfondie de la gestion de l’entreprise et de son paysage de risques. Elle nécessite également une hiérarchisation des risques et de leur traitement, ainsi qu’un décloisonnement des différentes entités fonctionnelles qui limitent la collaboration entre les équipes et donc la lutte contre les attaques informatiques qui n’ont que faire de ces frontières. L’objectif est de mieux impliquer les différentes équipes techniques tout en faisant de la cyber sécurité un vecteur d’innovation plutôt qu’une simple arme de dissuasion. », déclare l’experte.

Accédez maintenant à un nombre illimité de mot de passe :

Découvrez nos logiciels de piratage