Les vraies technologies de rupture de 2018

Photo credit: DigitalMajority on Visualhunt / CC BY-NC-SA

Chaque année depuis 2001, le Massachusetts Institute of Technology, plus connu sous  son sigle MIT, publie les dix innovations de rupture qui selon lui marqueront l’année en cours. Pour 2018, l’organisme de recherche met en particulier en avant l’intelligence artificielle (IA), et ce sous deux angles. Une IA qui deviendra de plus en plus accessible grâce au cloud. Elle ne sera plus réservée aux grands acteurs de l’IT tel Facebook, grâce à la puissance du cloud computing et à la mise à disposition de routines de deep learning. AWS, Microsoft et Google semblent pour l’instant les plus en avance, les deux premiers n’hésitant pas à mettre leurs ressources en commun pour développer des bibliothèques logicielles (libraries) pour créer des réseaux neuronaux.

Autre angle, plus technique, l’IA gagnera en autonomie grâce aux Generative adversarial networks (GAN). Pour le chercheur français Yann LeCun, en charge de l’activité IA chez Facebook et considéré comme « père » du machine learning, il s’agit de la plus grande avancée réalisée dans le domaine ces dix dernières années. Le principe est de mettre en compétition deux intelligences artificielles. La première agira classiquement par apprentissage, en générant des données artificielles à partir d’un jeu de données réelles. La seconde devra deviner si les données qui lui sont soumises sont des données réelles ou des données générées par la première IA. À force d’entraînements, cette dernière « comprend » qu’elle doit s’améliorer pour tromper la seconde. Les GANs ont été d’ores et déjà exploités par Nvidia pour créer des visages à partir de photos de stars du cinéma.  Continue reading “Les vraies technologies de rupture de 2018”

Du nouveau dans les processeurs pour serveurs

Même si la course au GHz est depuis longtemps terminée, les fabricants de processeurs, Intel et AMD en tête, continuent d’innover au profit des constructeurs de serveurs. Dell s’appuie ainsi sur des puces AMD EPYC pour ses trois derniers serveurs. L’annonce est remarquable tant Dell fait rarement d’infidélités à Intel pour ses machines. Ce choix s’explique par un ratio performances/prix meilleur par rapport à un processeur Intel, et par un nombre de machines virtuelles supportées plus élevé -d’où un coût moindre pour les clients. Des clients à chercher du côté des entreprises ayant de forts besoins en calcul numérique et logiquement en virtualisation. Techniquement, les serveurs PowerEdge sont disponibles en version mono ou bi-processeurs, disposent de 8 à 32 coeurs par processeurs et supportent 4 To de mémoire vive.

Peu de temps après cette annonce, Intel a dévoilé une nouvelle version de son processeur Xeon D. Il mise sur la faible consommation énergétique, destinant cette puce aux serveurs Web ou pour les telcos. Reste que ces serveurs restent touchés par les failles Meltdown et Spectre, les processeurs d’AMD étant nettement moins affectés.

Continue reading “Du nouveau dans les processeurs pour serveurs”

Ce que débourseront les entreprises pour leur mise en conformité avec le RGPD

Le Règlement général sur la protection des données a un coût pour les entreprises françaises. Et il n’est pas négligeable.  Ainsi 670 millions d’euros ont été consacrés en logiciels et services en 2017 et près d’1 milliard le sera en 2018 (à peu près autant en 2019), selon Syntec Numérique. Le syndicat professionnel prévoit même un total de plus de 4 milliards d’euros sur la période 2017-2021. Les projets de mise en conformité règlementaire constituent de fait des opportunités pour le secteur des services et logiciels informatiques.

Des projets en plusieurs étapes

Car si le RGPD entre en application en mai prochain, les entreprises ne seront pas toutes prêtes à cette date, loin de là. Selon IDC France, à peine 10% étaient prêtes en novembre dernier, et la moitié devraient l’être… à la fin de l’année. Des chiffres un peu plus optimistes que ceux du Gartner, qui estiment que plus de la moitié des entreprises ne seront pas prêtes fin 2018. En fait, la mise en place de ce règlement s’effectuera inévitablement en plusieurs étapes. Les entreprises comptent d’ailleurs en premier lieu sur leur preuve de « bonne volonté » pour éviter des amendes salées (pour rappel, celles-ci peuvent aller jusqu’à 4% du chiffre d’affaires mondial de l’entreprise, ou 20 millions d’euros).

Le secteur B2B moins touché

L’été dernier, Sia Partners a publié une étude sur le coût du RGPD pour les entreprises du CAC 40. En moyenne, celui-ci se chiffre à 30 millions d’euros. Une moyenne qui cache évidemment des disparités. Les banques et assurances devront le plus mettre la main à la poche, avec une facture proche de 100 millions d’euros. Le secteur du B2C devra débourser 35 millions, alors que le B2B devrait s’en tirer pour 11 millions en moyenne par entreprise. Ces dépenses devraient avoir des impacts sur les investissements des entreprises : si l’on en croit une étude européenne de European Business Awards, 23% des sociétés affirment devoir moins investir dans les produits innovants.

Les multinationales aussi concernées

Enfin, au niveau mondial -car, est-il besoin de le rappeler, les multinationales devront se conformer à ce règlement européen -, le coût est estimé à  7,8 milliards de dollars pour les sociétés du Fortune’s Global 500, selon une étude parue en novembre dernier réalisée par EY pour l’IAPP (International Association of Privacy Professionals). Pour les entreprises américaines notamment, cette dépense s’effectuera en particulier dans le domaine de la protection juridique.

AutoML, l’intelligence artificielle à la portée de presque tous

Lancé en version alpha, AutoML Vision est un service permettant aux développeurs de construire des algorithmes de reconnaissance d’images. AutoML avait été présenté en novembre dernier par des chercheurs de Google. AutoML est en fait un réseau de neurones généraliste, capable de créer des intelligences artificielles spécialisées, dont Vision est un exemple.

L’automne dernier, Google avait démontré que NASNet -l’application à l’origine d’AutoML Vision- s’était révélé plus efficace que n’importe quelle autre intelligence artificielle, sur les jeux d’images de tests bien connus que sont imageNet et Common Objects in COntext (COCO).

Dans la pratique, un développeur fournit à AutoML Vision une image avec des tags (une veste en cuir noir, par exemple), et l’IA crée un algorithme de reconnaissance de vestes. Le genre d’outils qui intéresse les sites de e-commerce, mais aussi le véhicule autonome. Selon Google, il faudrait compter environ une journée pour mettre au point une application prête à la production.

Continue reading “AutoML, l’intelligence artificielle à la portée de presque tous”

Ce qui se passera en 2018 en matière de cybersécurité

Chaque début d’année est l’occasion pour les fournisseurs IT et cabinets d’analystes de publier leurs prévisions. 2018 n’échappe pas à la règle, et nombreuses sont les études prédisant l’avenir du cloud, du stockage ou de l’intelligence artificielle en passant par le deep learning. S’il est un domaine qui fait l’unanimité, c’est celui de la cybersécurité. Il est vrai que 2017 a sans doute échaudé un peu plus les entreprises, avec par exemple les attaques mondiales Wannacry ou Petya, représentant une menace de plus en plus en vogue, celle des ransomwares. Cette menace s’accentuera en 2018, selon les laboratoires de Sophos : les ransomwares sont disponibles plus facilement sur le Dark net (as a service, comme tout bon logiciel en ligne), et attaqueront Windows mais aussi Android (les Mac et iPhone restant grandement épargnés). Sur les mobiles fonctionnant avec Android, le but des malfaiteurs n’est pas tant de crypter les données présentes sur le téléphone, mais tout simplement de verrouiller celui-ci. Selon McAfee, les ransomwares n’auront plus d’ailleurs comme unique objectif l’extorsion d’argent, mais aussi le sabotage d’entreprises sensibles, le secteur de la santé étant toujours celui qui intéresse le plus les pirates.  Continue reading “Ce qui se passera en 2018 en matière de cybersécurité”

Le Top500 des super-ordinateurs confirme la domination de la Chine

Source : Top500.org / DrasticData

Le classement bi-annuel des super-calculateurs de la planète, le Top500, est toujours révélateur des avancées dans le domaine informatique, qui se répercuteront dans les ordinateurs classiques de demain. L’édition de novembre confirme la main-mise de la Chine. L’Empire du Milieu possède désormais davantage de machines que les Etats-unis (202 contre 144) dans ce Top500. Il a construit les deux super-calculateurs les plus puissants de la planète, à savoir le n°1, Sunway Taihulight (93 PFlops) et Tianhe-2 (34 PFlops). Le premier est à base de processeurs maison Sunway (41000 CPU de 260 coeurs), qui empruntent aux architectures DEC Alpha et Sony Cell. Le second exploite des processeurs Intel, pour un total de 3,12 millions de coeurs. Plus généralement, par rapport à il y a 6 mois, le Top10 ne voit pas arriver de nouveaux entrants.

Parallèlement à ce Top500, un classement des super-ordinateurs les plus efficaces d’un point de vue énergétique est élaboré. Ce Green500 voit le haut du tableau (en puissance/watt) squatté par des machines japonaises, en l’occurrence des ZettaScaler. Il s’agit de calculateurs dont l’architecture, mise au point par Pezy Computing, comporte des CPU Intel Xeon et surtout des puces spécialisées pour les traitements massivement parallèles. Le Gyoukou, situé à l’agence de Sciences maritimes et terrestres du Japon, se situe ainsi 4e au Top500 et 5e au Green500.

Continue reading “Le Top500 des super-ordinateurs confirme la domination de la Chine”

Coup d’accélérateur pour le cloud hybride (suite)

Quelques jours après l’annonce d’un partenariat stratégique et technologique entre Google et Cisco, c’est au tour d’IBM de lancer une offre de cloud hybride, Cloud Private. Avec toujours le même objectif , attirer les entreprises encore frileuses vers les technologies cloud. C’est notamment à ses clients dans les domaines fortement règlementés, telles que la finance et la santé, qu’IBM s’adresse en premier lieu. Le type d’applications envisagées est le traitement en local des données sensibles d’une entreprise et la mise à disposition d’informations qui en résultent sur des applications mobiles disponibles dans le cloud public.

Techniquement, IBM s’appuie sur les briques à la mode du moment, à savoir Kubernetes pour l’orchestration, Docker pour les containers d’applications et le cloud Paas (Platform as a service) Cloud Foundry. Cloud Private fournit également des API pour dialoguer avec une application de CRM telle Salesforce. Les applications de Big Blue WebSphere Liberty, DB2 et MQ sont disponibles dans des containers optimisés. Continue reading “Coup d’accélérateur pour le cloud hybride (suite)”

L’alliance Google Cisco synonyme d’accélérateur pour le cloud hybride

Fin octobre, Google et Cisco ont annoncé une alliance technologique et stratégique dans le domaine du cloud computing, sur son versant hybride. L’objectif est de permettre à l’entreprise de créer indifféremment des applications fonctionnant sur site (on premises) ou dans le nuage (sur GCP, Google Cloud Platform). « Nous proposons un environnement cohérent on premises et dans le cloud pour que les codeurs développent où ils veulent et déploient où ils veulent », résume Kip Compton, VP chez Cisco.

Techniquement, cela sera possible grâce à Kubernetes, la plateforme de déploiement de conteneurs d’applications, intégrée à l’architecture réseau et sécurité et aux appliances hardware hyperconvergées HyperFlex de Cisco. La plateforme de management d’API Apigee permettra la connexion des logiciels on premise aux applications cloud. Enfin l’équilibrage de charge et les services d’authentification des microservices seront  assurés par l’outil open source Istio. Cette offre conjointe sera commercialisée début 2018. Continue reading “L’alliance Google Cisco synonyme d’accélérateur pour le cloud hybride”

CRM : mesurez-vous à vos concurrents

Où en êtes-vous dans votre gestion de la relation-client (CRM)? Selon le baromètre 2017 croissance et digital de l’Acsel, paru début octobre et réalisé sur un panel d’entreprises de 1 à 5000 salariés, 48% des entreprises en croissance utilisent un outil de CRM, contre seulement 11% des entreprises en décroissance. Même constat pour la messagerie instantanée : 33% de celles en croissance s’en servent, contre 11% de celles en décroissance.

Alors pour savoir où en sont les entreprises dans leur transformation digitale, Salesforce propose l’indice de relation client. Venant du numéro 1 du CRM en ligne, la démarche fait il est vrai partie d’une stratégie de brand content pour attirer des prospects. Il n’empêche que le « test », qui s’adresse plus aux PME (entreprises de moins de 1000 salariés) qu’aux ETI, est intéressant à plus d’un titre. Il a le mérite d’être clair et rapide à remplir (à peine 25 questions, ce qui prend moins de dix minutes). Il évalue la maturité des entreprises dans cinq domaines : ventes, marketing, collaboratif, service client et analytics.  Continue reading “CRM : mesurez-vous à vos concurrents”

Le plein de processeurs pour l’intelligence artificielle

Si l’intelligence artificielle (IA) va bouleverser le développement logiciel, elle intéresse aussi au plus haut point les fabricants de processeurs. Le dernier en date à faire des annonces dans ce domaine n’est autre qu’Intel. Il a présenté fin octobre sa première puce dédiée à l’IA, dénommée  Nervana Neural Network Processor (Nervana NNP). Elle est en fait issue de travaux réalisés par la start-up Nervana, rachetée l’été dernier par Intel. Son processeur n’est pour l’heure fourni qu’à quelques partenaires, le premier d’entre eux étant Facebook qui participe au développement de la puce. Le réseau social s’intéresse sans surprise de près à l’IA et au deep learning, avec à sa tête l’expert français du domaine Yann Le Cun.

Techniquement, la puce Nervana NNP dispose d’une architecture mémoire novatrice, un nouveau format de données destiné à optimiser le calcul en parallèle et peut facilement fonctionner en grappe. Continue reading “Le plein de processeurs pour l’intelligence artificielle”