Le Port de Rotterdam en version numérique

Internet des objets (IoT) et Intelligence artificielle, des termes qui font le buzz actuellement, trouvent une application concrète au Port de Rotterdam (PoR). L’autorité portuaire a en effet fait appel à IBM pour optimiser l’entrée et la sortie des quelque 140 000 navires fréquentant le port chaque année. Pour cela, une version numérique du port a été créée, grâce à des capteurs installés à peu près partout : dans l’eau (pour mesurer le niveau de la mer et les courants), dans les airs (mesure du vent et de la température, indicateurs de visibilité), sur terre, en particulier sur les bouées et les quais d’accostage (pour indiquer la présence de bateaux). S’y ajoutent les prévisions météo de The Weather Company (société acquise par IBM en 2016). Toutes ces données sont regroupées dans un tableau de bord unique, reproduisant graphiquement le port. L’objectif est de déterminer les meilleurs horaires pour les mouvements de navire. A la clé, le PoR prévoit une réduction d’une heure de temps de présence des bateaux. Pour faciliter la maintenance des navires (remplacement d’une pièce par exemple), un atelier d’impression 3D a été créé. Bénéfice : le temps de remplacement d’une pièce passe de six à une semaine. Continue reading “Le Port de Rotterdam en version numérique”

Atos signe un contrat clé avec l’Agence spatiale européenne

 

Atos  a été choisi par l’Agence spatiale européenne (ESA) pour fournir et gérer le service d’accès aux données et informations de Copernicus (DIAS). Le DIAS combinera les données géographiques en temps réel de Copernicus, le plus grand programme d’observation de la Terre au monde, avec des données provenant de sources multiples pour en faire des produits d’information destinés aux entreprises issues de secteurs tels que l’industrie, les assurances, les services publics, l’agriculture, la foresterie, l’urbanisme et les services d’urgence.

 

 

 

 

Ces nouveaux services pourront notamment aider :

  • Les scientifiques à comprendre l’impact du changement climatique ;
  • Les gouvernements et les villes à mieux gérer et anticiper le développement urbain ;
  • Les groupes énergétiques à évaluer et gérer les risques ;
  • Les agriculteurs à mieux gérer leurs récoltes et leurs rendements.

(…/…)

 

Du nouveau dans les processeurs pour serveurs

Même si la course au GHz est depuis longtemps terminée, les fabricants de processeurs, Intel et AMD en tête, continuent d’innover au profit des constructeurs de serveurs. Dell s’appuie ainsi sur des puces AMD EPYC pour ses trois derniers serveurs. L’annonce est remarquable tant Dell fait rarement d’infidélités à Intel pour ses machines. Ce choix s’explique par un ratio performances/prix meilleur par rapport à un processeur Intel, et par un nombre de machines virtuelles supportées plus élevé -d’où un coût moindre pour les clients. Des clients à chercher du côté des entreprises ayant de forts besoins en calcul numérique et logiquement en virtualisation. Techniquement, les serveurs PowerEdge sont disponibles en version mono ou bi-processeurs, disposent de 8 à 32 coeurs par processeurs et supportent 4 To de mémoire vive.

Peu de temps après cette annonce, Intel a dévoilé une nouvelle version de son processeur Xeon D. Il mise sur la faible consommation énergétique, destinant cette puce aux serveurs Web ou pour les telcos. Reste que ces serveurs restent touchés par les failles Meltdown et Spectre, les processeurs d’AMD étant nettement moins affectés.

Continue reading “Du nouveau dans les processeurs pour serveurs”

Ce que débourseront les entreprises pour leur mise en conformité avec le RGPD

Le Règlement général sur la protection des données a un coût pour les entreprises françaises. Et il n’est pas négligeable.  Ainsi 670 millions d’euros ont été consacrés en logiciels et services en 2017 et près d’1 milliard le sera en 2018 (à peu près autant en 2019), selon Syntec Numérique. Le syndicat professionnel prévoit même un total de plus de 4 milliards d’euros sur la période 2017-2021. Les projets de mise en conformité règlementaire constituent de fait des opportunités pour le secteur des services et logiciels informatiques.

Des projets en plusieurs étapes

Car si le RGPD entre en application en mai prochain, les entreprises ne seront pas toutes prêtes à cette date, loin de là. Selon IDC France, à peine 10% étaient prêtes en novembre dernier, et la moitié devraient l’être… à la fin de l’année. Des chiffres un peu plus optimistes que ceux du Gartner, qui estiment que plus de la moitié des entreprises ne seront pas prêtes fin 2018. En fait, la mise en place de ce règlement s’effectuera inévitablement en plusieurs étapes. Les entreprises comptent d’ailleurs en premier lieu sur leur preuve de « bonne volonté » pour éviter des amendes salées (pour rappel, celles-ci peuvent aller jusqu’à 4% du chiffre d’affaires mondial de l’entreprise, ou 20 millions d’euros).

Le secteur B2B moins touché

L’été dernier, Sia Partners a publié une étude sur le coût du RGPD pour les entreprises du CAC 40. En moyenne, celui-ci se chiffre à 30 millions d’euros. Une moyenne qui cache évidemment des disparités. Les banques et assurances devront le plus mettre la main à la poche, avec une facture proche de 100 millions d’euros. Le secteur du B2C devra débourser 35 millions, alors que le B2B devrait s’en tirer pour 11 millions en moyenne par entreprise. Ces dépenses devraient avoir des impacts sur les investissements des entreprises : si l’on en croit une étude européenne de European Business Awards, 23% des sociétés affirment devoir moins investir dans les produits innovants.

Les multinationales aussi concernées

Enfin, au niveau mondial -car, est-il besoin de le rappeler, les multinationales devront se conformer à ce règlement européen -, le coût est estimé à  7,8 milliards de dollars pour les sociétés du Fortune’s Global 500, selon une étude parue en novembre dernier réalisée par EY pour l’IAPP (International Association of Privacy Professionals). Pour les entreprises américaines notamment, cette dépense s’effectuera en particulier dans le domaine de la protection juridique.

L’analyse des données, au coeur de l’entreprise de demain

Par Florian Douetteau, CEO, Dataiku

Alors que les données se multiplient et que les consommateurs prennent conscience de leur empreinte numérique, les entreprises vont très vite faire face à un nouveau un défi : exploiter d’importants volumes de données en temps réel afin d’optimiser leur réactivité.
C’est le data-analyst, dont la place dans l’enteprise est en pleine mutation, qui peut relever ce challenge, à condition que son rôle se rapproche de l’opérationnel. Agir sur le churn une fois qu’il est prédit, agir sur les machines quand elles montrent des signes de faiblesse, éviter les fraudes en analysant les comportements clients : hors de son antre, le data-analyst sera en première ligne pour permettre à son équipe de tirer avantage du Big Data.

Données en temps réel et automatisation : le nouveau quotidien des analystes
Prédire les évènements futurs aura été la principale préoccupation des entreprises ces dernières années, bien plus que l’étude du passé. C’est là la force du temps réel. Mais c’est un réel défi, car les données affluent par milliers à la seconde : c’est à la réactivité que se mesure la performance, à sa rapidité d’ajustement en fonction des évènements que l’on évalue à présent une bonne stratégie. Pour répondre à ces nouvelles exigences, il ne suffira pas de se doter de profils qualifiés en analyse des données. Il faudra également faire évoluer l’action des équipes d’analystes, leur attribuer un rôle en première ligne, les faire entrer au cœur de l’action de l’entreprise.
Jusqu’ici dédiées à l’étude des évènements passés en vue de prédire ce qui peut se produire, et de transformer en information exploitation les millions de données collectées, les équipes d’analystes verront leur structure entièrement modifiée. L’automatisation des reportings et le machine learning auront raison des tâches répétitives. Les analystes de données disposeront ainsi de plus de temps pour ce qui constitue le cœur de leur métier : la construction de modèles prédictifs basés sur l’observation en temps réel des données et le machine learning. Des modèles qui pourront ensuite être reproduits et appliqués à différents cas de figure. Les analystes adoptent ainsi de nouvelles fonctions au sein de l’entreprise : l’exploration et la modélisation des données, et l’accompagnement de leurs interlocuteurs vers la compréhension de celles-ci.

Les nouveaux challenges : rendre les données accessibles et deep learning
L’apparition du deep learning a de quoi bouleverser la manière dont les data-analysts travaillent. Capables de reconnaître seules des schémas dans la parole ou l’image, les machines soumises au deep learning constituent des alliés pour le data-analyst : leur capacité de calcul rapide permet d’accélérer l’aide à la décision, et se révèle particulièrement utile dans des domaines tels que le ciblage marketing ou la météorologie. Continue reading “L’analyse des données, au coeur de l’entreprise de demain”