Tous les articles par admin

Passionner l'informatique, nous travaillons dans la sécurité informatique afin de proposer des conseils à nos lecteurs pour qu'ils évitent de se faire pirater leurs comptes et leurs mots de passe.

La sécurité des entreprises dans une situation où le télétravail et le travail du bureau doivent cohabiter

Grâce à la pandémie à coronavirus, le télétravail est aperçu aujourd’hui comme un standard professionnel.

Ce n’est plus un système de travail réservé à un groupe restreint de personnes. Tout le monde peut envisager aujourd’hui à télétravailler car pendant un certain moment, l’on a été obligé. Cette obligation à développer des habitudes. Et aujourd’hui certains travailleurs s’y plaisent. Ce qui a créé une dynamique qui tend vers l’hybridation du travail. D’un côté, ceux qui travaillent à la maison et de l’autre côté ceux qui continuent le travail au bureau. Dans ce contexte il est légitime de s’interroger sur la sécurité des données dans de telles circonstances.

Cet article va aussi vous intéresser : Le télétravail influence l’investissement et l’innovation dans le domaine du numérique

« Les habitudes de travail sont en pleine mutation. Alterner travail au bureau et travail à la maison devient de plus en plus fréquent et semble avoir de l’avenir. Dans ces mouvements perpétuels de personnes et de données, comment établir un environnement sécurisé ?

Le travail à la maison instauré dans l’urgence en pleine crise sanitaire a vu de nouvelles fonctions quitter l’enceinte de l’entreprise pour travailler depuis l’extérieur. Cette situation inédite mérite une réflexion de fond sur la sécurité des données de l’entreprise, notamment parce que le travail à la maison a suscité l’intérêt de nombreux chefs d’entreprise. » soulignait Pierre Curien, Directeur Doctor Web France (branche de l’entreprise russe de sécurité informatique).

Le changement est donc là. Il faut trouver un moyen pour réussir l’alternance entre le travail au bureau et le télétravail. Les fonctions classiques qui exigeaient la présence obligatoire au bureau doivent être adaptés pour être réalisables depuis le domicile du collaborateur. Nous nous rendons compte alors que la sécurité informatique n’a rien de virtuelle uniquement. Plusieurs comportements l’influencent grandement.  La manière d’utiliser les ordinateurs ou autres terminaux informatiques. De les déplacer, de les entretenir ou l’utiliser à plusieurs décrivent où précise le taux de sécurité pouvant lui convenir.

« Penser l’organisation (ou la réorganisation) de l’entreprise dans le cadre de ces nouvelles pratiques est une préoccupation majeure des chefs d’entreprise. Et la sécurité des données, si elle l’était déjà, devient encore plus fondamentale dans un environnement où celles-ci circulent plus et finiront par revenir dans le réseau de l’entreprise. ».

Vu sous cet aspect, il faudrait se poser les bonnes questions. Comment ça serait que l’utilisation de son ordinateur à la maison tout en étant connecté au réseau de l’entreprise pour être le plus sûr possible ? Comment ne pas mettre en danger les données qui circulent entre mon ordinateur personnel utilisé dans le cadre du travail et le serveur de l’entreprise ? Comment déterminer avec précision la manière de diviser les appareils informatiques lors du travail à domicile ?

C’est aux responsables des entreprises de prendre ce genre de décision et de répondre efficacement à cette problématique en temps réel. Leurs responsabilités et réside dans le fait de s’assurer que les données des clients ainsi que des collaborateurs s’en passer outre celles des fournisseurs soient en sécurité.

Dès le début la sécurité doit être une priorité. Les responsables d’entreprise on doit envisager toutes les éventualités c’est la problématique qui pourrait survenir dans l’alternance du télétravail et le travail au bureau. De façon claire et systématique, l’ensemble des terminaux qui devons intervenir dans ce processus doivent obligatoirement être équipés de certains outils de sécurité et de préservation de données.

On parle notamment de :

– Pare-feu

– D’antivirus

– De système de sauvegarde

– Le système de sécurité de messagerie

Mais il ne suffit pas tout simplement d’avoir ces logiciels. Il faudrait qu’ils soient convenablement configurés. Ils doivent par ailleurs être régulièrement mise à jour pour la correction de potentiel faille de sécurité. Car comme le précise Pierre Curien : « Un antivirus présent sur un poste mais mal paramétré ne sera pas pleinement opérationnel et ne remplira pas son contrat, alors qu’il en a toutes les capacités. Ces outils sont aujourd’hui bien plus sophistiqués qu’il y a dix ans, ils incluent de l’analyse comportementale, de la protection préventive, de l’analyse des processus, des technologies de pointe qui nécessitent peut-être des compétences adaptées pour être correctement configurées. Les chefs d’entreprises ne possèdent pas toujours, voire pas souvent ces compétences, ni les ressources adéquates en interne. ».

Accédez maintenant à un nombre illimité de mot de passe :

Découvrez nos logiciels de piratage

Les administrateurs trouvent les mises à jour de Windows inutiles

Interrogés sur la question plusieurs administrateurs d’infrastructures informatiques ont mentionné le fait que les mises à jour fournies par le géant américain Microsoft pour Windows 10 ne sont pas pour la majeure partie des cas utiles.

Et la majorité des administrateurs IT selon une enquête l’ont confirmé. Sur 500 professionnels interrogés sur la question, 58 % des personnes ayant à leur charge la gestion de la maintenance de Windows sur le lieu de travail ont confirmé le caractère inutile des nouvelles fonctionnalités souvent apportées par Microsoft à son système.

Cet article va aussi vous intéresser : Les ordinateurs fonctionnant sous Windows 10, 8.1 et 7 sont vulnérables depuis la découverte d’une faille de sécurité critique

Notons que seulement 20 % des professionnels interrogés ont estimé que certaines mises à jour ont leurs utilités en pratique. 22 % sont restés neutre. Pour eux, ces mises à jour ne sont ni utiles une utiles.

Cela a été découvert suite à un questionnaire publié le mois dernier par une consultante en réseau et sécurité informatique du nom de Susan Bradley, elle anime une plate-forme en ligne PatchMangement.org, destinée aux administrateurs d’infrastructures Informatiques où ils peuvent discuter de plusieurs sujets portant sur leur travail.

Notons par ailleurs que ce n’est pas la première fois la spécialiste en sécurité informatique initie ce genre d’enquête auprès de ses collègues. Par exemple en 2018, une enquête similaire avait démontré que 70 % des professionnels interrogés trouvait que les mises à jour de fonctionnalité fourni par Microsoft sur Windows n’étaient pas véritablement utiles. 35 % les trouvait rarement utile. Seulement 12 % avait estimé que ces mises à jour avec leur utilité et 18 % avait décidé de rester neutre.

Microsoft a fait de son mieux pour améliorer ses mises à jour et ses fonctionnalités de Windows 10. Cependant, la majorité des administrateurs ne sont toujours pas convaincus de l’utilité de ses nouvelles fonctionnalités. Car en 2020 seulement 4 personnes ont trouvé vrai tellement utile ces évolutions.

Pour Susan Bradley, « Il est clair que Microsoft doit reconsidérer son processus de mise à niveau… et clarifier ses objectifs ». Car apparemment : « Il y a un décalage entre les efforts et les attentes de Microsoft – des mois de développement et de tests pour produire des caractéristiques et des fonctionnalités que les clients sont censés réclamés – et les réponses d’une majorité écrasante de clients. Souvent, les administrateurs IT se contentent de hausser les épaules en réaction aux annonces de Microsoft. ». Un administrateur IT interrogé notait : « Je comprends le concept de WaaS, et la possibilité de mettre à jour le système d’exploitation sans avoir à le nettoyer ou le réinstaller est un bon concept. Mais ce serait mieux de se concentrer sur les fonctionnalités utiles, par exemple améliorer l’explorateur de fichiers, avoir un menu Start qui fonctionne toujours et disposer d’une aide contextuelle (et utile), que de proclamer que le temps est venu de publier une nouvelle mise à jour, avec de nouvelles fonctionnalités utiles, ou non ». Dans la même lancée, plusieurs autres professionnels interrogés adoptent une attitude assez sévère pour le déploiement de nouvelles fonctionnalités de la part de Microsoft. « Je ne sais pas pourquoi Microsoft pense que certaines de ces nouvelles fonctionnalités méritent qu’on y consacre du temps, y compris de son côté », a déclaré une autre professionnel. Certains perçoivent cela comme un gâchis d’opportunités. « Il s’agit surtout de gadgets et de poudre aux yeux », signifie un responsable informatique interrogé lors du panel. Ce dernier ajoutera : « On a l’impression qu’aucun problème fondamental n’est résolu. Alors que les mises à jour entraînent toujours ici et là de nouveaux problèmes dans les fonctionnalités fondamentales. Il semble au moins que l’éditeur gratte un peu le sujet – mais sans explication ». De son côté, Susan Bradley notera : « Microsoft consacre la plus grande partie de son développement à la livraison de ces versions semestrielles de fonctionnalités… or les entreprises ne les déploient pas assez rapidement pour en tirer parti ».

Visiblement d’accord avec la spécialiste, Greg Keizer, IDG NS retiendra : « En effet, étant donné que les entreprises qui utilisent Windows 10 Enterprise ou Windows 10 Éducation bénéficient de 30 mois de support pour chaque mise à jour d’automne (la mise à jour de printemps ne bénéficie que de 18 mois de support), les services IT les plus agiles peuvent se permettre de sauter plusieurs mises à jour et de ne rafraîchir leurs PC qu’une fois tous les deux ans. Cela signifie au final que les entreprises et leurs employés sont exposés à toutes les nouvelles fonctionnalités de Windows 10. Mais pas au rythme de Microsoft. Encore une fois, ces mises à jour méritent-elles le temps que Microsoft y consacre ? Le sondage de Mme Bradley, aussi peu scientifique qu’il ait été, laisse penser que « non, elles ne le méritent vraiment pas ».

Accédez maintenant à un nombre illimité de mot de passe :

Découvrez nos logiciels de piratage

Les risques liés à la 5 G : mythes ou réalité

Depuis l’annonce de son déploiement, le réseau 5G est au cœur de plusieurs discussions et craintes.

Les interrogations principales se situent autour de ses inconvénients. Généralement, on situe les effets néfastes du réseau 5G autour de la protection des données, la sécurité des systèmes d’information et de la santé. Cependant comme nous le savons très bien, bientôt les premières offres de la 5G seront disponibles. C’est donc le moment de répondre à certaines questions et de dissiper certaines inquiétudes.

Cet article va aussi vous intéresser : La problématique de la 5G de Huawei en France : vers ou non un bannissement total

Tout d’abord, il faudrait savoir que les performances enterrement de débit seront multiplié par 10 avec la 5G. On parle ici en termes de rapidité des échanges et des connexions. Utilisation est déjà appréhender dans plusieurs secteurs quel que celui des objets connectés à savoir la télémédecine, les voitures connectées et même les villes intelligentes. Le domaine de la robotique et le domaine de la télécommunication classique. Les questions principales que l’on se pose sont les suivantes :

– Les ondes qui seront émise par la 5G sont-elles dangereuses pour la santé ?

– Les performances prévu par la 5G faciliteront t’elles l’explosion de l’espionnage et de la cybercriminalité ?

Alors il est donc normal de s’interroger sur ses craintes sont légitimes.

Sur la question de la santé, Sophie Pelletier, la présidente de PRIARTEM-Electro-sensible de France, notait : « on sait que ces ondes ont un impact sur notre cerveau et que des personnes manifestent des troubles d’électro sensibilité ». D’un autre côté Stephen Kerckhove, le délégué général d’Agir pour l’environnement, affirmes-en son sens que la 5G « va entraîner une explosion de l’exposition des riverains ».

Pour le moment ce ne sont que des allégations car aucune preuve véritable n’a été apportée pour étayer ses positions. Dans un rapport publié conjointement le 1er septembre 2020 par le Conseil général de l’économie, l’Inspection générale des affaires sociales, Conseil général de l’environnement et du développement durable, l’Inspection générale des finances, on pouvait lire : « il n’existe pas, selon le consensus des agences sanitaires nationales et internationales, d’effets néfastes avérés à court terme » pour ce qui concerne officiellement ces ondes électromagnétiques de la 5G. De façon claire, aucun effet n’a été observé pour durer à long terme.

Mais selon les spécialistes, le risque de la 5G ne serait pas aussi grand au plus grand que celui de la 4G. En effet les déplacements des 5 G qui est censé se faire dans les zones urbaines un ajout de certains périphériques. Cependant, « elle peut contribuer à une augmentation du nombre de points atypiques », précise le rapport. En d’autres termes, vu que la portée du nouveau réseau plus courtes, il faudra alors installer plus d’antenne 5G. Cependant, une étude a démontré que les ondes sont moins dangereuses pour l’être humain à cause de sa faible pénétration dans les tissus humains.

Au-delà du danger pour l’être humain une autre approche a été émise, celle concernant les dangers du réseau 5G sur l’environnement. À ce niveau, l’équipementier Suédois Ericsson notait : « La consommation énergétique est susceptible d’augmenter de manière dramatique si la 5G est déployée de la même manière que la 4G ». « Un équipement 5G consomme 3 fois plus qu’un équipement 4G, et ajouter des équipements 5G aux sites existants (2G, 3G, 4G) conduira à doubler la consommation du site », mettait en garde le Jean-Marc Jancovici, un spécialiste des énergies. Il ajoute par la suite : « Cela revient à environ 10 TWh supplémentaires, soit une augmentation de 2 % de la consommation d’électricité du pays ». Cependant de leur côté, les équipementiers promettre de déployer le maximum de technologie pour réduire sensiblement la consommation. Le tien par exemple promesse une réduction de près de 30 % avec sa nouvelle technologie de refroidissement des équipements.

À la question de savoir si la 5G pourrait d’une certaine manière influencer la cybercriminalité, plusieurs interrogations été soulevées sur ce fait. Par exemple, si les fournisseurs d’équipements 5G aurait la possibilité d’espionner par exemple, les États dans lesquels seront déployés leurs appareils? Tel fut la même problématique qui est impliqué Huawei le géant chinois dans nombreux pays en Europe. C’est sur la base de cette crainte que l’entreprise chinoise a été littéralement évincée dans plusieurs pays tels que la France ou encore l’Angleterre. Pour la question de la cybersécurité, les experts sont littéralement unanimes. « La 5G favorise de nouveaux risques en terme de cybersécurité, notamment par la multiplication des points d’entrée et une infrastructure à la fois plus décentralisée », souligne Jean-Marc Jancovici. À cause de la rapidité au niveau des débits, « de grandes quantités de données peuvent être exfiltrées d’une organisation en quelques secondes », signifiait William Culbert, directeur Europe du Sud de BeyondTrust.

Accédez maintenant à un nombre illimité de mot de passe :

Découvrez nos logiciels de piratage

Moins de la moitié des responsables de la sécurité informatique sont efficaces dans leurs travaux

Une étude récente réalisé par le cabinet Gartner apporter sur l’efficacité des responsables chargés de la sécurité informatique organisation.

L’enquête a impliqué environ 129 responsables de sécurité de système d’information.

Au sortie de l’enquête il a été prouvé que les responsables de sécurité les plus efficaces sont ceux qui collaborent de manière particulière avec le responsable au métier de leur organisation, beaucoup plus qu’avec les informaticiens.

Cet article va aussi vous intéresser : Les responsables de sécurité informatique en France face aux défis de la sécurité et de la performance des réseaux

Notons que l’étude a été réalisé depuis janvier 2020. Elle a évalué quatre domaines d’intervention du responsable de sécurité des systèmes d’information. Et malheureusement l’enquête de Gartner à démontrer que seulement 12 % les responsables de sécurité en entreprise sont véritablement efficaces dans leurs tâches. Les 4 points essentiels sur lequel l’évaluation été réalisé sont :

– leur leadership fonctionnel,

– la fourniture de services de sécurité informatique,

– la gouvernance à grande échelle,

– la réactivité de l’entreprise.

En commentaire, Gartner écrivait : « Une tendance claire parmi les RSSI les plus performants est d’être particulièrement proactif ». Pour le cabinet de recherche, la performance des responsables de sécurité s’observe autour de 5 comportements clés. C’est qui permet notamment de les différencier et de les évaluer. « Une tendance claire parmi les RSSI les plus performants est d’être particulièrement proactif, qu’il s’agisse de se tenir au courant de l’évolution des menaces, de communiquer les risques émergents aux personnes concernées ou d’avoir un plan de relève formel » souligne le cabinet Gartner.

On a part ailleurs, des responsables de sécurité qui rencontrent et échangent avec beaucoup plus de monde dans le domaine non informatique de manière régulière sont beaucoup plus performant. Malheureusement cela ne comporte que 12 pourcents de ceci. Cependant, 66 % des responsables de sécurité, une grande majorité donc démontrer qu’ils peuvent se réunir au moins une fois par mois avec les responsables des unités techniques et commerciales. 45 % d’entre eux rencontre généralement le responsable marketing. 43 % vois le PDG alors que 30 % avec les responsables des ventes. Ce qui est en pratique pas mauvais en soi car comme on le sait, avoir contact avec les responsables peut avoir son importance.

« Les RSSI ont historiquement établi des relations de travail avec les responsables informatiques, mais la transformation digitale a démocratisé la prise de décision en matière de sécurité de l’information » prévient le cabinet. « Les RSSI efficaces surveillent de près l’évolution des risques dans leur entreprise et développent des relations solides avec les propriétaires de ces risques, qui sont des dirigeants business en dehors de l’informatique. » ajoute il.

Par ailleurs, RSI considéré comme les plus performants ont été aussi considérés comme étant les meilleurs à gérer leur stress au travail, et impacté positivement leurs collaborateurs. Seulement 27 % des responsables de sécurité de système d’information ont démontré cette capacité de gérer efficacement leurs facteurs de stress. 62 % des responsables de sécurité de système d’information se sentent généralement surchargés par des alertes de sécurité. 30 % des responsables estimant que les attentes à leur égard dans le domaine de la sécurité informatique sont souvent irréalistes. Certains sincèrement même que ces attentes n’ont rien à voir avec la sécurité. Ils constituent 50 pourcents des responsables de sécurité les moins performants.

« Les responsables de la sécurité les plus efficaces sont ceux qui peuvent gérer les facteurs de stress auxquels ils sont confrontés quotidiennement. Pour qu’un RSSI soit performant, il doit maintenir une distinction claire entre le travail et le non-travail, définir explicitement les attentes des différentes parties prenantes dont les responsables business, et déléguer ou automatiser des tâches » conclut le cabinet Gartner. On peut tout simplement retenir de ce rapport du cabinet que les rapports entre les responsables de sécurité d’un système d’information et le personnellement en informatique est un pan essentiel pour le développement de la sécurité de l’entreprise. Une manière de dire, que la protection des système d’informatique d’entreprise repose sur les épaules de tous les collaborateurs peu importe le secteur dans lequel il travaille. Et ça aussi l’opportunité de comprendre que la cybersécurité va au-delà du simple fait informatique. Il y a aussi un ensemble de considération sociale et morale qui permettre de mieux comprendre le fonctionnement de la cybermalveillance.

Accédez maintenant à un nombre illimité de mot de passe :

Découvrez nos logiciels de piratage

Réseaux industriels : la question essentielle de la visibilité

Avec la crise sanitaire que traverse le monde entier, nous avons pu assister à une convergence entre les réseaux.

La nécessité de sécuriser les systèmes informatiques industriels devenu plus qu’une nécessité. Pourtant la mise en place de moyens de sécurisation de ces systèmes nécessite d’abord de créer une visibilité de leur réseau OT. Pour ce fait, il y a malheureusement des obstacles qu’on ne peut pas ignorer.

Cet article va aussi vous intéresser : La majorité des systèmes et réseaux informatiques sont vulnérables à la cybercriminalité de petite catégorie

La co-fondatrice et Chief Business Development de Claroty, Galina Antova, spécialiste de la sécurité des environnements OT note sur ce point : « Comme dans tous les domaines de la cybersécurité, une cybersécurité industrielle efficace se résume fondamentalement à la mise en œuvre de contrôles qui réduisent les risques. Facile, non ? Mais une fois que s’est dit… par où commencer ? Là aussi la réponse semble évidente : dresser un inventaire complet du réseau, avec moult détails sur l’ensemble des actifs, leurs canaux de communications et les processus attachés. Mais bien que tout cela paraisse assez simple, la réalité est tout autre : l’un des défis fondamentaux auquel font face les RSSI en la matière est que la visibilité sur les réseaux de technologie OT (technologie dite « opérationnelle », ou industrielle) est particulièrement difficile à obtenir en raison d’une multitude de facteurs. ».

Alors notons les principaux obstacles qui rendent difficile une bonne visibilité sur les réseaux informatique industriels. Tout d’abord, il faut signifier que nous sommes dans un cadre de technologie non standardisée. En d’autres termes, les matériels informatiques dans le cadre des réseaux industriels pour avoir une durée de plusieurs dizaines d’années. Ce que signifie qu’au fur et à mesure que le temps passe, l’entreprise industrielle accumule de plus en plus actifs que ce soit sur le plan matériel ou sur le plan technique. Ce qui commence généralement à étendre et diversifier le site de production. Dans certains cas, les entreprises industrielles ont tendance à souvent mélanger les anciens matériels et les nouveaux dans le but d’en créer un meilleur. Ce qui pose un problème car ces matériels viennent souvent de fournisseurs différents.

Le second obstacle concerne généralement les protocoles, appelés dans ce contexte protocoles propriétaires. Généralement, les entreprises ont commencé à utiliser les mêmes protocoles déjà établi par le constructeur des appareils et matériels informatique. Les protocoles que généralement ne peuvent être déchiffrés que par l’utilisation d’outils spéciaux. Ce qui rend l’utilisation d’outils traditionnels un peu plus risqué dans la mesure où ils ne pourront pas offrir un bon son de visibilité sur la sécurité des réseaux OT.

Le troisième obstacle est relatif au coût que peut générer les perturbations potentielles. En effet « Comme les réseaux d’OT ont tendance à être fragiles avec une bande passante limitée, l’utilisation de systèmes d’analyse de vulnérabilité traditionnels conçus pour les réseaux informatiques plus robustes et mieux desservis peut entraîner la défaillance des dispositifs industriels et conduire, dans certains cas extrêmes, à la mise hors service d’usines entières. Étant donné que de nombreux environnements de production dépendent de la continuité opérationnelle pour assurer leur rentabilité, le coût d’un inventaire complet de l’OT est ainsi souvent jugé prohibitif. D’un autre côté, comme le coût potentiel de l’ignorance des menaces sur ces équipements l’est tout autant aux yeux du RSSI, cette dynamique pose un véritable dilemme à de nombreuses organisations ! » précise Galina Antova.

L’accès à distance se positionne comme étant le 4éme obstacle. En effet, l’équipe de support technique ont tendance à le plus souvent utiliser des connexions à distance. Il en est de même avec des fournisseurs tiers qui souvent sont chargés de la maintenance des actifs informatique. Avoir une bonne visibilité sur tes différentes périodes de connexion à distance est véritablement important. En particulier pour les audits, l’évaluation des risques ainsi que la gestion du changement. Le problème c’est que les systèmes généralement dédiés aux accès à distance n’ont pas été spécialement conçus pour les environnements industriels. Ce qui rend leur adaptation un peu plus compliquée.

« Ainsi, il est clair que si la visibilité est un facteur indispensable pour la sécurité des systèmes d’information traditionnels, elle ne l’est pas moins en matière d’informatique industrielle. Mais pour de trop nombreuses organisations encore, les spécificités des matériels et des réseaux de l’informatique industrielle ne sont pas suffisamment prises en compte par les solutions de sécurité génériques. La granularité dans la connaissance des configurations, des protocoles et configurations, notamment, n’est pas suffisante pour permettre de garantir le même niveau de sécurité que sur les réseaux de l’informatique bureautique ». Conclut Galina Antova.

Accédez maintenant à un nombre illimité de mot de passe :

Découvrez nos logiciels de piratage