Comment maîtriser ses API et en tirer de la valeur ?

Par Jérémie Devillard, Co-Fondateur et Directeur Technique chez Moskitos

Les API positionnées dans un système back-end permettent l’interfaçage à des sources de données ou des applications, génératrices de valeur pour les utilisateurs. La maîtrise de cet écosystème passe en premier lieu par une phase d’identification de ces ressources au sein de l’entreprise mais aussi de leurs utilisateurs :
C’est en regroupant les identifications utilisateurs/ressources dans un point central que l’on pourra organiser une politique de gestion de droits d’accès aux ressources, pour garantir la sécurité de l’ensemble. Il devient ainsi possible de définir des autorisations à certains utilisateurs, depuis certains types d’environnements et d’outils autorisés, selon une période temporelle définie si nécessaire, pour qu’ils puissent accéder à certains types de ressources, et pas d’autres.
Gestion centralisée de la sécurité
Bien qu’un nombre illimité de services puissent être mis à disposition au sein de la plateforme d’API, chacun susceptible de disposer d’une politique de sécurité différente, il n’en demeure pas moins qu’un seul point d’accès devra être mis à disposition et visible par les applications consommatrices de données.
Cela va permettre d’instaurer une politique de gouvernance commune et donc de proposer une authentification unifiée (de type OpenId, SamI…) pour pouvoir récupérer de manière homogène les rôles et droits des utilisateurs dans l’environnement de l’entreprise; une gestion des droits d’accès basée sur une catégorisation des API back-end selon leur niveau de confidentialité (avec une nomenclature de type C1 à Cn) correspondant à un niveau d’accréditation nécessaire pour que les utilisateurs puissent y accéder.
Au sein de ces droits d’accès, il va alors être possible de définir des capacités d’accès pour les utilisateurs et leurs applications selon des engagements de services (SLA) contractualisés selon des plans de type Gold, Silver, etc., établissant un niveau de consommation limité de la ressource recherchée. Par exemple, dans le cadre de son plan Silver, un utilisateur aura le droit d’accéder à une certaine API 50 fois par jour, uniquement en semaine de 7h à 20h.
Si l’on a la possibilité de mettre en place ces plans de consommation, c’est grâce aux mesures d’appels des ressources qui sont mises à disposition au sein de la plateforme de gestion des droits d’accès aux API. Cette connaissance du niveau de sollicitation de la plateforme et des flux sortants est une brique essentielle de la maîtrise de ses ressources car elle permet de connaître le succès d’une API par rapport à une autre. C’est ainsi que l’on pourra ensuite envisager une politique de rémunération de l’accès à ces ressources.
Garantie de performance de la plateforme et santé des API
En plus de pouvoir quantifier le niveau d’utilisation de ses API, la plateforme de gestion va également fournir d’autres indicateurs qui vont permettre de connaître les latences induites par la plateforme elle-même mais aussi les latences du service exposant la ressource. Ces informations permettront d’identifier les API en difficulté et de localiser rapidement les goulots d’étranglement.

Continue reading “Comment maîtriser ses API et en tirer de la valeur ?”

AutoML, l’intelligence artificielle à la portée de presque tous

Lancé en version alpha, AutoML Vision est un service permettant aux développeurs de construire des algorithmes de reconnaissance d’images. AutoML avait été présenté en novembre dernier par des chercheurs de Google. AutoML est en fait un réseau de neurones généraliste, capable de créer des intelligences artificielles spécialisées, dont Vision est un exemple.

L’automne dernier, Google avait démontré que NASNet -l’application à l’origine d’AutoML Vision- s’était révélé plus efficace que n’importe quelle autre intelligence artificielle, sur les jeux d’images de tests bien connus que sont imageNet et Common Objects in COntext (COCO).

Dans la pratique, un développeur fournit à AutoML Vision une image avec des tags (une veste en cuir noir, par exemple), et l’IA crée un algorithme de reconnaissance de vestes. Le genre d’outils qui intéresse les sites de e-commerce, mais aussi le véhicule autonome. Selon Google, il faudrait compter environ une journée pour mettre au point une application prête à la production.

Continue reading “AutoML, l’intelligence artificielle à la portée de presque tous”

Compuware ouvre l’accès au Cloud pour le développement Mainframe

 

Compuware annonce  la disponibilité sur AWS (Amazon Web Services) de Topaz, sa solution phare pour le développement Agile et la mise en place d’une approche DevOps sur le mainframe. Cette étape marque le premier accès Cloud au développement moderne sur le mainframe, permettant ainsi aux entreprises de déployer en quelques minutes des outils agiles pour le COBOL et autres principaux codes mainframe.

 En proposant aux entreprises clientes sa solution innovante via Amazon Web Services, Compuware répond à un besoin crucial : transposer les meilleures pratiques Agile et DevOps dans leur environnement mainframe. L’exploitation de la puissance du Cloud et du mainframe permet aux entreprises de déployer Topaz sur l’ensemble de leurs effectifs de développement dans le monde entier en quelques minutes, accélérant ainsi le processus de modernisation de leur environnement mainframe. (…/…)
 

 


Comment l’intelligence artificielle bouleverse l’algorithmique

L’intelligence artificielle (IA) en général et les réseaux neuronaux en particulier ne sont pas nouveaux. Deux facteurs rendent  aujourd’hui l’IA incontournable : le volume de données et la puissance de calcul disponibles. Même si paradoxalement, malgré le « data deluge”, les user cases ne sont pas encore assez nombreux pour l’IA! Or ces cas utilisateurs sont indispensables à l’IA pour tirer rapidement des enseignements à partir des expériences  -échecs y compris – passées. Car pour fonctionner, un réseau de neurones doit disposer d’une multitude de données pour en tirer une information pertinente.
La mécanique d’un réseau de neurones fonctionne en effet à partir de données en entrée et d’une sortie attendue. A partir du résultat obtenu, plusieurs milliers de rétropropagations sont effectuées afin de trouver où des erreurs sont apparues, de sorte qu’au final le résultat s’approche le plus possible de la sortie attendue. Avantage des réseaux neuronaux : une correspondance peut-être modélisée entre n’importe quelle entrée et n’importe quelle sortie, sans que le cerveau humain n’ait à élaborer d’hypothèses en amont. Et ce à la différence par exemple des applications marketing classiques qui font appel au profil de la fameuse « ménagère de moins de 50 ans » pour lui proposer ce qui est susceptible de l’intéresser. Continue reading “Comment l’intelligence artificielle bouleverse l’algorithmique”