Le Port de Rotterdam en version numérique

Internet des objets (IoT) et Intelligence artificielle, des termes qui font le buzz actuellement, trouvent une application concrète au Port de Rotterdam (PoR). L’autorité portuaire a en effet fait appel à IBM pour optimiser l’entrée et la sortie des quelque 140 000 navires fréquentant le port chaque année. Pour cela, une version numérique du port a été créée, grâce à des capteurs installés à peu près partout : dans l’eau (pour mesurer le niveau de la mer et les courants), dans les airs (mesure du vent et de la température, indicateurs de visibilité), sur terre, en particulier sur les bouées et les quais d’accostage (pour indiquer la présence de bateaux). S’y ajoutent les prévisions météo de The Weather Company (société acquise par IBM en 2016). Toutes ces données sont regroupées dans un tableau de bord unique, reproduisant graphiquement le port. L’objectif est de déterminer les meilleurs horaires pour les mouvements de navire. A la clé, le PoR prévoit une réduction d’une heure de temps de présence des bateaux. Pour faciliter la maintenance des navires (remplacement d’une pièce par exemple), un atelier d’impression 3D a été créé. Bénéfice : le temps de remplacement d’une pièce passe de six à une semaine. Continue reading “Le Port de Rotterdam en version numérique”

Du nouveau dans les processeurs pour serveurs

Même si la course au GHz est depuis longtemps terminée, les fabricants de processeurs, Intel et AMD en tête, continuent d’innover au profit des constructeurs de serveurs. Dell s’appuie ainsi sur des puces AMD EPYC pour ses trois derniers serveurs. L’annonce est remarquable tant Dell fait rarement d’infidélités à Intel pour ses machines. Ce choix s’explique par un ratio performances/prix meilleur par rapport à un processeur Intel, et par un nombre de machines virtuelles supportées plus élevé -d’où un coût moindre pour les clients. Des clients à chercher du côté des entreprises ayant de forts besoins en calcul numérique et logiquement en virtualisation. Techniquement, les serveurs PowerEdge sont disponibles en version mono ou bi-processeurs, disposent de 8 à 32 coeurs par processeurs et supportent 4 To de mémoire vive.

Peu de temps après cette annonce, Intel a dévoilé une nouvelle version de son processeur Xeon D. Il mise sur la faible consommation énergétique, destinant cette puce aux serveurs Web ou pour les telcos. Reste que ces serveurs restent touchés par les failles Meltdown et Spectre, les processeurs d’AMD étant nettement moins affectés.

Continue reading “Du nouveau dans les processeurs pour serveurs”

Ce que débourseront les entreprises pour leur mise en conformité avec le RGPD

Le Règlement général sur la protection des données a un coût pour les entreprises françaises. Et il n’est pas négligeable.  Ainsi 670 millions d’euros ont été consacrés en logiciels et services en 2017 et près d’1 milliard le sera en 2018 (à peu près autant en 2019), selon Syntec Numérique. Le syndicat professionnel prévoit même un total de plus de 4 milliards d’euros sur la période 2017-2021. Les projets de mise en conformité règlementaire constituent de fait des opportunités pour le secteur des services et logiciels informatiques.

Des projets en plusieurs étapes

Car si le RGPD entre en application en mai prochain, les entreprises ne seront pas toutes prêtes à cette date, loin de là. Selon IDC France, à peine 10% étaient prêtes en novembre dernier, et la moitié devraient l’être… à la fin de l’année. Des chiffres un peu plus optimistes que ceux du Gartner, qui estiment que plus de la moitié des entreprises ne seront pas prêtes fin 2018. En fait, la mise en place de ce règlement s’effectuera inévitablement en plusieurs étapes. Les entreprises comptent d’ailleurs en premier lieu sur leur preuve de « bonne volonté » pour éviter des amendes salées (pour rappel, celles-ci peuvent aller jusqu’à 4% du chiffre d’affaires mondial de l’entreprise, ou 20 millions d’euros).

Le secteur B2B moins touché

L’été dernier, Sia Partners a publié une étude sur le coût du RGPD pour les entreprises du CAC 40. En moyenne, celui-ci se chiffre à 30 millions d’euros. Une moyenne qui cache évidemment des disparités. Les banques et assurances devront le plus mettre la main à la poche, avec une facture proche de 100 millions d’euros. Le secteur du B2C devra débourser 35 millions, alors que le B2B devrait s’en tirer pour 11 millions en moyenne par entreprise. Ces dépenses devraient avoir des impacts sur les investissements des entreprises : si l’on en croit une étude européenne de European Business Awards, 23% des sociétés affirment devoir moins investir dans les produits innovants.

Les multinationales aussi concernées

Enfin, au niveau mondial -car, est-il besoin de le rappeler, les multinationales devront se conformer à ce règlement européen -, le coût est estimé à  7,8 milliards de dollars pour les sociétés du Fortune’s Global 500, selon une étude parue en novembre dernier réalisée par EY pour l’IAPP (International Association of Privacy Professionals). Pour les entreprises américaines notamment, cette dépense s’effectuera en particulier dans le domaine de la protection juridique.

L’analyse des données, au coeur de l’entreprise de demain

Par Florian Douetteau, CEO, Dataiku

Alors que les données se multiplient et que les consommateurs prennent conscience de leur empreinte numérique, les entreprises vont très vite faire face à un nouveau un défi : exploiter d’importants volumes de données en temps réel afin d’optimiser leur réactivité.
C’est le data-analyst, dont la place dans l’enteprise est en pleine mutation, qui peut relever ce challenge, à condition que son rôle se rapproche de l’opérationnel. Agir sur le churn une fois qu’il est prédit, agir sur les machines quand elles montrent des signes de faiblesse, éviter les fraudes en analysant les comportements clients : hors de son antre, le data-analyst sera en première ligne pour permettre à son équipe de tirer avantage du Big Data.

Données en temps réel et automatisation : le nouveau quotidien des analystes
Prédire les évènements futurs aura été la principale préoccupation des entreprises ces dernières années, bien plus que l’étude du passé. C’est là la force du temps réel. Mais c’est un réel défi, car les données affluent par milliers à la seconde : c’est à la réactivité que se mesure la performance, à sa rapidité d’ajustement en fonction des évènements que l’on évalue à présent une bonne stratégie. Pour répondre à ces nouvelles exigences, il ne suffira pas de se doter de profils qualifiés en analyse des données. Il faudra également faire évoluer l’action des équipes d’analystes, leur attribuer un rôle en première ligne, les faire entrer au cœur de l’action de l’entreprise.
Jusqu’ici dédiées à l’étude des évènements passés en vue de prédire ce qui peut se produire, et de transformer en information exploitation les millions de données collectées, les équipes d’analystes verront leur structure entièrement modifiée. L’automatisation des reportings et le machine learning auront raison des tâches répétitives. Les analystes de données disposeront ainsi de plus de temps pour ce qui constitue le cœur de leur métier : la construction de modèles prédictifs basés sur l’observation en temps réel des données et le machine learning. Des modèles qui pourront ensuite être reproduits et appliqués à différents cas de figure. Les analystes adoptent ainsi de nouvelles fonctions au sein de l’entreprise : l’exploration et la modélisation des données, et l’accompagnement de leurs interlocuteurs vers la compréhension de celles-ci.

Les nouveaux challenges : rendre les données accessibles et deep learning
L’apparition du deep learning a de quoi bouleverser la manière dont les data-analysts travaillent. Capables de reconnaître seules des schémas dans la parole ou l’image, les machines soumises au deep learning constituent des alliés pour le data-analyst : leur capacité de calcul rapide permet d’accélérer l’aide à la décision, et se révèle particulièrement utile dans des domaines tels que le ciblage marketing ou la météorologie. Continue reading “L’analyse des données, au coeur de l’entreprise de demain”

AutoML, l’intelligence artificielle à la portée de presque tous

Lancé en version alpha, AutoML Vision est un service permettant aux développeurs de construire des algorithmes de reconnaissance d’images. AutoML avait été présenté en novembre dernier par des chercheurs de Google. AutoML est en fait un réseau de neurones généraliste, capable de créer des intelligences artificielles spécialisées, dont Vision est un exemple.

L’automne dernier, Google avait démontré que NASNet -l’application à l’origine d’AutoML Vision- s’était révélé plus efficace que n’importe quelle autre intelligence artificielle, sur les jeux d’images de tests bien connus que sont imageNet et Common Objects in COntext (COCO).

Dans la pratique, un développeur fournit à AutoML Vision une image avec des tags (une veste en cuir noir, par exemple), et l’IA crée un algorithme de reconnaissance de vestes. Le genre d’outils qui intéresse les sites de e-commerce, mais aussi le véhicule autonome. Selon Google, il faudrait compter environ une journée pour mettre au point une application prête à la production.

Continue reading “AutoML, l’intelligence artificielle à la portée de presque tous”

Ce qui se passera en 2018 en matière de cybersécurité

Chaque début d’année est l’occasion pour les fournisseurs IT et cabinets d’analystes de publier leurs prévisions. 2018 n’échappe pas à la règle, et nombreuses sont les études prédisant l’avenir du cloud, du stockage ou de l’intelligence artificielle en passant par le deep learning. S’il est un domaine qui fait l’unanimité, c’est celui de la cybersécurité. Il est vrai que 2017 a sans doute échaudé un peu plus les entreprises, avec par exemple les attaques mondiales Wannacry ou Petya, représentant une menace de plus en plus en vogue, celle des ransomwares. Cette menace s’accentuera en 2018, selon les laboratoires de Sophos : les ransomwares sont disponibles plus facilement sur le Dark net (as a service, comme tout bon logiciel en ligne), et attaqueront Windows mais aussi Android (les Mac et iPhone restant grandement épargnés). Sur les mobiles fonctionnant avec Android, le but des malfaiteurs n’est pas tant de crypter les données présentes sur le téléphone, mais tout simplement de verrouiller celui-ci. Selon McAfee, les ransomwares n’auront plus d’ailleurs comme unique objectif l’extorsion d’argent, mais aussi le sabotage d’entreprises sensibles, le secteur de la santé étant toujours celui qui intéresse le plus les pirates.  Continue reading “Ce qui se passera en 2018 en matière de cybersécurité”

RGPD : Ce qu’il faut savoir de son impact sur la sous-traitance en entreprise

Par Antoine Louiset, co-fondateur de Yousign

Face à RGPD, un aspect très important doit être impérativement pris en compte par les entreprises, celui de la sous-traitance. Comment les responsables de traitement et les sous-traitants doivent-ils appréhender l’arrivée du RGPD ?

Vers une nouvelle relation entre le responsable de traitement et le sous-traitant

Selon le site du CNRS « La notion de responsable du traitement des données et son interaction avec la notion de sous-traitant des données jouent un rôle central dans l’application de la directive 95/46/CE, car elles déterminent la ou les personnes chargées de faire respecter les règles de protection des données, la manière dont les personnes concernées peuvent exercer leurs droits, le droit national applicable, et le degré d’efficacité des autorités chargées de la protection des données. »

La mise en application du Règlement Général sur la Protection des Données entend donc faire évoluer la relation qui unit le responsable de traitement au sous-traitant qui gère en direct les données à caractère personnel d’une entreprise.

Autrement dit, fini le temps où l’on pouvait changer de sous-traitant sans se poser de questions. Dans le cas où un sous-traitant décide de changer de sous-traitant, il doit impérativement en informer le responsable de traitement et mettre en place une procédure parfaitement cadrée.

De ce fait, le sous-traitant et le responsable de traitement doivent avoir un contrat qui liste l’ensemble des responsabilités du sous-traitant. Ce dernier ne peut pas faire n’importe quoi des données : il doit traiter les données à caractère personnel que sur instruction documentée du responsable de traitement. La confidentialité des données à caractère personnel est donc renforcée, les personnes autorisées à y accéder doivent être soumises à la confidentialité. Continue reading “RGPD : Ce qu’il faut savoir de son impact sur la sous-traitance en entreprise”

Ce que coûte une transformation numérique ratée

CC0 Creative Commons

Que se passe-t-il quand une entreprise échoue dans sa digitalisation? C’est à cette épineuse question qu’a tenté de répondre Fujitsu, dans une étude intitulée The Digital Transformation PACT (People Actions Collaboration Technology). Celle-ci a été menée à l’échelle mondiale par Censuswide pour Fujitsu auprès de plus de 1600 dirigeants (150 Français) dans plusieurs secteurs (public, vente, finances, industrie). La plupart sont d’accord sur le constat initial : 84% reconnaissent que leurs clients attendent de leur part une digitalisation accrue. Pour y parvenir, elles sont autant à prendre des mesures (formation par exemple), afin d’améliorer la compétence informatique de leurs employés.

La technologie n’est pas considérée comme le maillon essentiel de la chaine du changement : seule 1 entreprise sur 5 la place en tête, derrière notamment le facteur humain. « La technologie peut être un véritable moteur de transformation, mais tirer le meilleur du digital exige davantage que des outils technologiques dernier cri », confirme Duncan Tait, PDG, directeur des zones Amérique et EMEIA chez Fujitsu. Les entreprises s’intéressent à la technologie essentiellement sur les questions de cybersécurité. Selon les auteurs de l’étude, cette faible proportion montre que les entreprises sont de plus en plus matures, et sont passées à l’étape suivante. La collaboration est ainsi un moyen d’entamer leur transformation numérique : six entreprises sur dix travaillent avec leurs clients et partenaires (experts technologiques notamment). Continue reading “Ce que coûte une transformation numérique ratée”

Non le RGPD n’est pas une opportunité, c’est juste un casse-tête

Le RGPD, toutes les entreprises devront y passer. Ce règlement européen vise à protéger les données personnelles des consommateurs. L’objectif est louable. Face notamment aux Gafa (Google Apple Facebook Amazon), l’Europe a souhaité mettre en place des dispositifs visant à mieux informer les citoyens sur les traitements appliqués à leurs informations privées. Jusqu’à maintenant, dans ce domaine, régnait l’obscurité la plus totale. Et sans aller penser comme le poète Nicolas Boileau-Despréaux que « le vice, toujours sombre, aime l’obscurité », un minimum de transparence est bienvenu. De là à dire que le RGPD constitue une opportunité pour les entreprises, il y a un pas que n’hésitent pas à franchir les éditeurs et prestataires informatiques, notamment ceux régnant dans le domaine de la sécurité informatique. Or non : les entreprises doivent s’attendre à un coûteux et fastidieux travail pour se mettre en conformité, avec à la clé zéro avantage pour leur business.

Une obligation est dans un premier temps est de dénicher toutes les données personnelles dont l’entreprise dispose et ce qu’elle en fait. A cette fin, elle devra le plus souvent effectuer un audit. Or n’importe quel chef d’entreprise vous le dira, un auditeur est rarement accueilli les bras ouverts par les collaborateurs de l’entreprise. Dans ce cas précis, ce sont des spécialistes de la protection des données, externes à l’entreprise, qui viendront demander des explications sur les processus de l’entreprise. L’entreprise devra par exemple ne serait-ce qu’indiquer où se trouvent ces données. Cela peut sembler trivial, mais il est parfois difficile de connaître exactement quelles informations sont sur le cloud, chez l’entreprise et/ou chez un prestataire. L’auditeur devra ainsi enquêter au département marketing par exemple, et interroger ceux qui se coltinent la réalité du terrain. Pas sûr que le courant passe… Continue reading “Non le RGPD n’est pas une opportunité, c’est juste un casse-tête”

Comment Norauto a passé sa comptabilité sur le Web avec Unit4

Exploitant Unit4 Financials (ex-Coda) depuis 1998, Norauto est passé d’une version client lourd (v11) à une version cloud (v13). Le projet a duré un an, de juillet 2016 à juillet 2017. La décision a été prise par la DSI internationale, laquelle chapeaute l’ensemble des besoins des pays. Même si l’entreprise était cliente depuis 1998, la DSI s’est posé la question de savoir si le spécialiste de l’entretien et de l’équipement automobile devait conserver Unit4, ou opter pour une autre solution. Sept pays étaient concernés par cette migration. Ce qui a motivé Norauto, c’est justement d’avoir une interface commune pour les sept pays, et de disposer en permanence et simultanément de la dernière version de l’application. Si le socle de Unit4 Financials est commun, cela n’évite pas des développements spécifiques à certains pays. En France par exemple, le FEC (Fichier des écritures comptables) est un document à remettre à l’administration. Autre développement, un outil permet d’aller chercher de l’information dans Unit4 Financials pour l’envoyer sous Cognos et la mettre à disposition des magasins. Au Portugal, le système de facturation électronique SAFT-PT est obligatoire. En France, une centaine d’utilisateurs se servent de Unit4 Financials, répartis dans plusieurs équipes : comptabilité fournisseurs, prestations de services, entretien des bâtiments, immobilisations, comptabilité clients…

Le passage à la version SaaS de Unit4 Financials signifiait un changement d’ergonomie, ce qui a nécessité la formation des collaborateurs. Les flux financiers avec SAP et Kyriba (trésorerie) ont dû être modifiés par les équipes informatiques, tous les échanges s’effectuant désormais par web services.

Continue reading “Comment Norauto a passé sa comptabilité sur le Web avec Unit4”