Comment se prémunir contre les Insider attacks ?

Par William Culbert, Directeur Europe du Sud, Bomgar

Selon Verizon, les attaques les plus coûteuses pour les organisations en 2016 et en 2017 sont celles générées par les employés (Insider attacks). Le terme Insider inclut généralement les employés ayant un accès privilégié : les administrateurs IT, les opérations IT, les techniciens, le service clients etc. A cet égard, selon le rapport Bomgar 2017, seuls 41% des professionnels de la sécurité indiquent faire totalement confiance à leurs employés. Ils n’ont pas tout à fait tort. La dernière étude Verizon Data Breach Investigations Report indique que dans 60% des cas d’exploitation mal intentionnée des accès et des données par des Insiders, le mobile est essentiellement financier. Pour 17% d’entre eux, la motivation tient au fait qu’ils sont convaincus que leur espionnage ne sera pas sanctionné. Enfin, dans 15% des cas, les intrus s’emparent d’informations appartenant à l’entreprise au moment de la quitter, soit pour rejoindre un nouvel employeur, soit pour créer une structure concurrente qui utilisera les données subtilisées pour se lancer sur le marché.

Des conséquences nombreuses et parfois dramatiques
En plus du temps-homme requis afin de remédier à ces attaques, quatre conséquences principales sont identifiées. Tout d’abord la perturbation voire l’interruption des opérations, ensuite la perte d’informations, puis la perte de revenus et enfin les dégâts sur les systèmes. L’ampleur des dégâts, potentiellement dramatiques, s’explique par le fait que ces attaques sont fréquentes et qu’elles nécessitent des ressources et du temps pour être détectées (parfois plusieurs mois). Une fois les intrusions repérées, le rapport Verizon précise qu’environ 50 jours supplémentaires sont nécessaires à une organisation pour rétablir l’environnement compromis. Il existe pourtant des solutions de gestion des accès privilégiés (PAM) et de gestion des identités privilégiées (PIM) qui permettent aujourd’hui de limiter les accès et donc les risques, sans que la productivité des équipes ne soit impactée. Ces solutions permettent par ailleurs, en quelques heures seulement, une analyse et une mise en conformité des identités, selon les politiques définies, ainsi qu’une remédiation et une récupération.

Contrôler et tracer les accès privilégiés en quelques clics
Le meilleur moyen de prévenir les attaques consiste à limiter les accès aux personnes autorisées et à circonscrire leurs privilèges, en fonction de critères bien définis. Pour ce faire, des accès granulaires et maitrisés permettent de contrôler, de surveiller et de gérer les accès privilégiés pour chaque employé. L’entreprise peut définir les systèmes auxquels ces utilisateurs peuvent accéder et à quel moment. Il est également possible de définir des listes blanches et des listes noires d’applications, selon les profils d’utilisateurs. Les accès privilégiés sont ainsi parfaitement contrôlés.  Par ailleurs, en cas de demande d’accès non autorisé ou d’opérations douteuses, les administrateurs du réseau reçoivent instantanément des notifications ou des alertes. Ils peuvent ainsi superviser l’ensemble des opérations. Chacune des connexions peut être listée. Pour une traçabilité encore plus importante, il est fortement recommandé d’obtenir des enregistrements vidéo des sessions.

Gérer les identifiants sur la durée, de manière automatisée
La gestion des identités, leur analyse et leur mise en conformité sont essentielles pour garantir l’intégrité du système informatique et des données de l’entreprise. Le contrôle accru des comptes privilégiés sur tout le réseau passe donc nécessairement par une gestion automatique du cycle de vie des identifiants. Celle-ci permet d’effectuer des changements de mot de passe, de manière régulière et sans intervention humaine. Ainsi, des rotations et des injections d’identifiants sont possibles, en fonction de la politique définie. En un clic, des identifiants uniques sont injectés vers les systèmes et les matériels, avec un renouvellement régulier et fréquent, et sans que ces identifiants ne soient dévoilés en clair. Cette rotation des identités privilégiées s’effectue en quelques secondes, sachant que les solutions avancées peuvent analyser et générer jusqu’à 180,000 mots de passe privilégiés par minute. Autre bénéfice, cette procédure permet de stopper toute attaque en cours, les accès étant bloqués pour les cyberpirates, avant même que ces derniers n’aient le temps d’accéder à d’autres systèmes.

Garantir la continuité des opérations avec un ratio temps-homme minimal dans des infrastructures en changement permanent
Ces solutions avancées génèrent des gains de temps très importants. Elles permettent aux équipes informatiques en charge de la sécurité du système d’agir avant que la continuité des opérations ne soit menacée. Des fonctionnalités de remédiation assurent une vérification de la conformité des identifiants et leur diversification, dans le respect des politiques en vigueur et dans un contexte d’évolution permanente des infrastructures. La synchronisation des changements entre les entités est effectuée grâce à des connecteurs prédéfinis qui garantissent une défense optimale. Un environnement cloisonné permet une détection automatique des intrusions en temps réel. Enfin, pour garantir la continuité des opérations, une récupération est possible en quelques heures, grâce au nettoyage des environnements compromis.

Comment la France redevient-elle une destination de choix pour les entreprises et les talents du monde entier

Par Marc Feddersen, Directeur d’Autobutler.fr

Poussés par la crise, de nombreux jeunes diplômés français ont tenté l’aventure à l’étranger, où ils ont acquis une ouverture d’esprit et un grand désir d’innovation. Ces qualités se sont ajoutées aux avantages tirés de l’éducation française, qui mise sur les compétences analytiques et le plurilinguisme. C’est dans cet état d’esprit qu’ils sont revenus enrichir l’écosystème entrepreneurial français.  Ils y bénéficient en outre d’un système de santé et de transports providentiel, dans un pays qui s’est par ailleurs distingué par ses réseaux de communication performants. C’est donc à présent dans la « startup nation » annoncée par le gouvernement en place que les géants du web, pour ne citer qu’eux, implantent leurs viviers de compétences.

L’éducation française, terreau fertile pour les talents

L’éducation à la française repose sur un socle beaucoup plus solide que dans de nombreux pays, visant l’excellence dans les compétences scientifiques et analytiques. De plus, elle sait s’adapter aux nouveaux défis : les nombreuses formations aux métiers technologiques témoignent d’une ouverture sur les enjeux actuels. Dans un monde de plus en plus impacté par le numérique, les compétences scientifiques sont précieuses pour comprendre, analyser et exploiter les données à des fins ambitieuses. La France est donc particulièrement indiquée pour former des analystes, des data scientists, des développeurs, et sait porter les talents liés aux business florissants de la fintech ou des marketplaces. Les écoles de commerce françaises étant toutes ouvertes sur le monde, elles favorisent l’échange d’étudiants avec les écoles étrangères. Ainsi baignés dans un environnement international et multilingue, les jeunes esprits gagnent en confiance et en ouverture, peuvent mieux élargir leurs perspectives, et acquièrent une grande capacité d’adaptation. Rien d’étonnant alors à ce que des géants comme Google ou Facebook viennent y implanter leurs viviers de compétences !

Les millenials : une génération qui souhaite entreprendre

Les entrepreneurs étrangers bénéficient en France d’une énergie nouvelle et prometteuse : celle de la génération Z (Millenials). Continue reading “Comment la France redevient-elle une destination de choix pour les entreprises et les talents du monde entier”

Les vraies technologies de rupture de 2018

Photo credit: DigitalMajority on Visualhunt / CC BY-NC-SA

Chaque année depuis 2001, le Massachusetts Institute of Technology, plus connu sous  son sigle MIT, publie les dix innovations de rupture qui selon lui marqueront l’année en cours. Pour 2018, l’organisme de recherche met en particulier en avant l’intelligence artificielle (IA), et ce sous deux angles. Une IA qui deviendra de plus en plus accessible grâce au cloud. Elle ne sera plus réservée aux grands acteurs de l’IT tel Facebook, grâce à la puissance du cloud computing et à la mise à disposition de routines de deep learning. AWS, Microsoft et Google semblent pour l’instant les plus en avance, les deux premiers n’hésitant pas à mettre leurs ressources en commun pour développer des bibliothèques logicielles (libraries) pour créer des réseaux neuronaux.

Autre angle, plus technique, l’IA gagnera en autonomie grâce aux Generative adversarial networks (GAN). Pour le chercheur français Yann LeCun, en charge de l’activité IA chez Facebook et considéré comme « père » du machine learning, il s’agit de la plus grande avancée réalisée dans le domaine ces dix dernières années. Le principe est de mettre en compétition deux intelligences artificielles. La première agira classiquement par apprentissage, en générant des données artificielles à partir d’un jeu de données réelles. La seconde devra deviner si les données qui lui sont soumises sont des données réelles ou des données générées par la première IA. À force d’entraînements, cette dernière « comprend » qu’elle doit s’améliorer pour tromper la seconde. Les GANs ont été d’ores et déjà exploités par Nvidia pour créer des visages à partir de photos de stars du cinéma.  Continue reading “Les vraies technologies de rupture de 2018”

Le Port de Rotterdam en version numérique

Internet des objets (IoT) et Intelligence artificielle, des termes qui font le buzz actuellement, trouvent une application concrète au Port de Rotterdam (PoR). L’autorité portuaire a en effet fait appel à IBM pour optimiser l’entrée et la sortie des quelque 140 000 navires fréquentant le port chaque année. Pour cela, une version numérique du port a été créée, grâce à des capteurs installés à peu près partout : dans l’eau (pour mesurer le niveau de la mer et les courants), dans les airs (mesure du vent et de la température, indicateurs de visibilité), sur terre, en particulier sur les bouées et les quais d’accostage (pour indiquer la présence de bateaux). S’y ajoutent les prévisions météo de The Weather Company (société acquise par IBM en 2016). Toutes ces données sont regroupées dans un tableau de bord unique, reproduisant graphiquement le port. L’objectif est de déterminer les meilleurs horaires pour les mouvements de navire. A la clé, le PoR prévoit une réduction d’une heure de temps de présence des bateaux. Pour faciliter la maintenance des navires (remplacement d’une pièce par exemple), un atelier d’impression 3D a été créé. Bénéfice : le temps de remplacement d’une pièce passe de six à une semaine. Continue reading “Le Port de Rotterdam en version numérique”

Du nouveau dans les processeurs pour serveurs

Même si la course au GHz est depuis longtemps terminée, les fabricants de processeurs, Intel et AMD en tête, continuent d’innover au profit des constructeurs de serveurs. Dell s’appuie ainsi sur des puces AMD EPYC pour ses trois derniers serveurs. L’annonce est remarquable tant Dell fait rarement d’infidélités à Intel pour ses machines. Ce choix s’explique par un ratio performances/prix meilleur par rapport à un processeur Intel, et par un nombre de machines virtuelles supportées plus élevé -d’où un coût moindre pour les clients. Des clients à chercher du côté des entreprises ayant de forts besoins en calcul numérique et logiquement en virtualisation. Techniquement, les serveurs PowerEdge sont disponibles en version mono ou bi-processeurs, disposent de 8 à 32 coeurs par processeurs et supportent 4 To de mémoire vive.

Peu de temps après cette annonce, Intel a dévoilé une nouvelle version de son processeur Xeon D. Il mise sur la faible consommation énergétique, destinant cette puce aux serveurs Web ou pour les telcos. Reste que ces serveurs restent touchés par les failles Meltdown et Spectre, les processeurs d’AMD étant nettement moins affectés.

Continue reading “Du nouveau dans les processeurs pour serveurs”

Ce que débourseront les entreprises pour leur mise en conformité avec le RGPD

Le Règlement général sur la protection des données a un coût pour les entreprises françaises. Et il n’est pas négligeable.  Ainsi 670 millions d’euros ont été consacrés en logiciels et services en 2017 et près d’1 milliard le sera en 2018 (à peu près autant en 2019), selon Syntec Numérique. Le syndicat professionnel prévoit même un total de plus de 4 milliards d’euros sur la période 2017-2021. Les projets de mise en conformité règlementaire constituent de fait des opportunités pour le secteur des services et logiciels informatiques.

Des projets en plusieurs étapes

Car si le RGPD entre en application en mai prochain, les entreprises ne seront pas toutes prêtes à cette date, loin de là. Selon IDC France, à peine 10% étaient prêtes en novembre dernier, et la moitié devraient l’être… à la fin de l’année. Des chiffres un peu plus optimistes que ceux du Gartner, qui estiment que plus de la moitié des entreprises ne seront pas prêtes fin 2018. En fait, la mise en place de ce règlement s’effectuera inévitablement en plusieurs étapes. Les entreprises comptent d’ailleurs en premier lieu sur leur preuve de « bonne volonté » pour éviter des amendes salées (pour rappel, celles-ci peuvent aller jusqu’à 4% du chiffre d’affaires mondial de l’entreprise, ou 20 millions d’euros).

Le secteur B2B moins touché

L’été dernier, Sia Partners a publié une étude sur le coût du RGPD pour les entreprises du CAC 40. En moyenne, celui-ci se chiffre à 30 millions d’euros. Une moyenne qui cache évidemment des disparités. Les banques et assurances devront le plus mettre la main à la poche, avec une facture proche de 100 millions d’euros. Le secteur du B2C devra débourser 35 millions, alors que le B2B devrait s’en tirer pour 11 millions en moyenne par entreprise. Ces dépenses devraient avoir des impacts sur les investissements des entreprises : si l’on en croit une étude européenne de European Business Awards, 23% des sociétés affirment devoir moins investir dans les produits innovants.

Les multinationales aussi concernées

Enfin, au niveau mondial -car, est-il besoin de le rappeler, les multinationales devront se conformer à ce règlement européen -, le coût est estimé à  7,8 milliards de dollars pour les sociétés du Fortune’s Global 500, selon une étude parue en novembre dernier réalisée par EY pour l’IAPP (International Association of Privacy Professionals). Pour les entreprises américaines notamment, cette dépense s’effectuera en particulier dans le domaine de la protection juridique.

L’analyse des données, au coeur de l’entreprise de demain

Par Florian Douetteau, CEO, Dataiku

Alors que les données se multiplient et que les consommateurs prennent conscience de leur empreinte numérique, les entreprises vont très vite faire face à un nouveau un défi : exploiter d’importants volumes de données en temps réel afin d’optimiser leur réactivité.
C’est le data-analyst, dont la place dans l’enteprise est en pleine mutation, qui peut relever ce challenge, à condition que son rôle se rapproche de l’opérationnel. Agir sur le churn une fois qu’il est prédit, agir sur les machines quand elles montrent des signes de faiblesse, éviter les fraudes en analysant les comportements clients : hors de son antre, le data-analyst sera en première ligne pour permettre à son équipe de tirer avantage du Big Data.

Données en temps réel et automatisation : le nouveau quotidien des analystes
Prédire les évènements futurs aura été la principale préoccupation des entreprises ces dernières années, bien plus que l’étude du passé. C’est là la force du temps réel. Mais c’est un réel défi, car les données affluent par milliers à la seconde : c’est à la réactivité que se mesure la performance, à sa rapidité d’ajustement en fonction des évènements que l’on évalue à présent une bonne stratégie. Pour répondre à ces nouvelles exigences, il ne suffira pas de se doter de profils qualifiés en analyse des données. Il faudra également faire évoluer l’action des équipes d’analystes, leur attribuer un rôle en première ligne, les faire entrer au cœur de l’action de l’entreprise.
Jusqu’ici dédiées à l’étude des évènements passés en vue de prédire ce qui peut se produire, et de transformer en information exploitation les millions de données collectées, les équipes d’analystes verront leur structure entièrement modifiée. L’automatisation des reportings et le machine learning auront raison des tâches répétitives. Les analystes de données disposeront ainsi de plus de temps pour ce qui constitue le cœur de leur métier : la construction de modèles prédictifs basés sur l’observation en temps réel des données et le machine learning. Des modèles qui pourront ensuite être reproduits et appliqués à différents cas de figure. Les analystes adoptent ainsi de nouvelles fonctions au sein de l’entreprise : l’exploration et la modélisation des données, et l’accompagnement de leurs interlocuteurs vers la compréhension de celles-ci.

Les nouveaux challenges : rendre les données accessibles et deep learning
L’apparition du deep learning a de quoi bouleverser la manière dont les data-analysts travaillent. Capables de reconnaître seules des schémas dans la parole ou l’image, les machines soumises au deep learning constituent des alliés pour le data-analyst : leur capacité de calcul rapide permet d’accélérer l’aide à la décision, et se révèle particulièrement utile dans des domaines tels que le ciblage marketing ou la météorologie. Continue reading “L’analyse des données, au coeur de l’entreprise de demain”

AutoML, l’intelligence artificielle à la portée de presque tous

Lancé en version alpha, AutoML Vision est un service permettant aux développeurs de construire des algorithmes de reconnaissance d’images. AutoML avait été présenté en novembre dernier par des chercheurs de Google. AutoML est en fait un réseau de neurones généraliste, capable de créer des intelligences artificielles spécialisées, dont Vision est un exemple.

L’automne dernier, Google avait démontré que NASNet -l’application à l’origine d’AutoML Vision- s’était révélé plus efficace que n’importe quelle autre intelligence artificielle, sur les jeux d’images de tests bien connus que sont imageNet et Common Objects in COntext (COCO).

Dans la pratique, un développeur fournit à AutoML Vision une image avec des tags (une veste en cuir noir, par exemple), et l’IA crée un algorithme de reconnaissance de vestes. Le genre d’outils qui intéresse les sites de e-commerce, mais aussi le véhicule autonome. Selon Google, il faudrait compter environ une journée pour mettre au point une application prête à la production.

Continue reading “AutoML, l’intelligence artificielle à la portée de presque tous”

Ce qui se passera en 2018 en matière de cybersécurité

Chaque début d’année est l’occasion pour les fournisseurs IT et cabinets d’analystes de publier leurs prévisions. 2018 n’échappe pas à la règle, et nombreuses sont les études prédisant l’avenir du cloud, du stockage ou de l’intelligence artificielle en passant par le deep learning. S’il est un domaine qui fait l’unanimité, c’est celui de la cybersécurité. Il est vrai que 2017 a sans doute échaudé un peu plus les entreprises, avec par exemple les attaques mondiales Wannacry ou Petya, représentant une menace de plus en plus en vogue, celle des ransomwares. Cette menace s’accentuera en 2018, selon les laboratoires de Sophos : les ransomwares sont disponibles plus facilement sur le Dark net (as a service, comme tout bon logiciel en ligne), et attaqueront Windows mais aussi Android (les Mac et iPhone restant grandement épargnés). Sur les mobiles fonctionnant avec Android, le but des malfaiteurs n’est pas tant de crypter les données présentes sur le téléphone, mais tout simplement de verrouiller celui-ci. Selon McAfee, les ransomwares n’auront plus d’ailleurs comme unique objectif l’extorsion d’argent, mais aussi le sabotage d’entreprises sensibles, le secteur de la santé étant toujours celui qui intéresse le plus les pirates.  Continue reading “Ce qui se passera en 2018 en matière de cybersécurité”

RGPD : Ce qu’il faut savoir de son impact sur la sous-traitance en entreprise

Par Antoine Louiset, co-fondateur de Yousign

Face à RGPD, un aspect très important doit être impérativement pris en compte par les entreprises, celui de la sous-traitance. Comment les responsables de traitement et les sous-traitants doivent-ils appréhender l’arrivée du RGPD ?

Vers une nouvelle relation entre le responsable de traitement et le sous-traitant

Selon le site du CNRS « La notion de responsable du traitement des données et son interaction avec la notion de sous-traitant des données jouent un rôle central dans l’application de la directive 95/46/CE, car elles déterminent la ou les personnes chargées de faire respecter les règles de protection des données, la manière dont les personnes concernées peuvent exercer leurs droits, le droit national applicable, et le degré d’efficacité des autorités chargées de la protection des données. »

La mise en application du Règlement Général sur la Protection des Données entend donc faire évoluer la relation qui unit le responsable de traitement au sous-traitant qui gère en direct les données à caractère personnel d’une entreprise.

Autrement dit, fini le temps où l’on pouvait changer de sous-traitant sans se poser de questions. Dans le cas où un sous-traitant décide de changer de sous-traitant, il doit impérativement en informer le responsable de traitement et mettre en place une procédure parfaitement cadrée.

De ce fait, le sous-traitant et le responsable de traitement doivent avoir un contrat qui liste l’ensemble des responsabilités du sous-traitant. Ce dernier ne peut pas faire n’importe quoi des données : il doit traiter les données à caractère personnel que sur instruction documentée du responsable de traitement. La confidentialité des données à caractère personnel est donc renforcée, les personnes autorisées à y accéder doivent être soumises à la confidentialité. Continue reading “RGPD : Ce qu’il faut savoir de son impact sur la sous-traitance en entreprise”