Intelligence Artificielle : quels enjeux d’industrialisation ?

 

Michael Debbah

Director Consulting

 

Think Big Analytics (Teradata)

 

retour au menu

L’Intelligence Artificielle est déjà présente dans de nombreux aspects de notre vie quotidienne. Notre voiture est de plus en plus autonome tandis que les assistants vocaux de nos smartphones rivalisent d’ingéniosité pour nous apporter une interaction toujours plus naturelle et fluide. La médecine fait également sa révolution grâce à des capacités de diagnostic permettant de détecter au plus tôt des cas de cancer que des radiologues même les plus expérimentés n’auraient pas pu déceler.

 

L’IA se décline ainsi sous plusieurs formes d’intelligence : reconnaissances visuelle et vocale, analyse sémantique, calcul prédictif ... Pour autant, si dans le cas de la voiture autonome la machine peut se substituer au conducteur, l’intelligence plus globale et intuitive de l’humain saura reprendre le contrôle lorsqu’une situation inhabituelle se présentera (prendre quelqu’un en stop, aider une personne en panne sur le bord de la route …).

 

Dans l’entreprise l’IA est également en plein développement.

Dans l’industrie, la maintenance prédictive anticipe l'occurrence d'une panne et contribue ainsi à optimiser les chaînes de distribution des pièces et le taux d’utilisation des machines en production.

Dans la grande distribution, les modèles de prévision basés sur des techniques d’apprentissage permettent de traiter avec plus de justesse les prévisions des volumes de ventes et ainsi optimiser les chaînes d’approvisionnement, réduire les coûts de stockage et augmenter les revenus de ventes.

 

D’après le rapport Vance Bourne « State Of Art of Intelligence Artificial », réalisé en juillet 2017 auprès de 260 décideurs métier et IT, plus de 80% des entreprises interrogées ont déjà déployé en production un service en Machine Learning ou Deep Learning et plus de 30% prévoient d’étendre leur investissement dans ce domaine. C’est le cas notamment de Carrefour, leader de la grande distribution, qui prévoit un plan de 2,8 milliards d’euros sur 5 ans dans l’e-commerce et le digital.

 

Ces démarches de transformation de nature technologique sont effectivement porteuses de beaucoup d’espoir. Comme toute innovation, pour devenir une réalité en production il sera cependant nécessaire de penser l’IA d’un point de vue plus opérationnel, structurer une organisation, des processus de gouvernance et des moyens IT permettant de supporter son développement à court terme et sur la durée.

 

Toujours d’après l’étude Vance Bourne, 91% des entreprises anticipent des barrières significatives à l’adoption de l’IA. Nous identifions notamment 3 aspects clefs à la réussite d’une démarche IA.

 

La construction d’un capital « données »

 

Un projet IA est d’abord un projet sur les données.

 

Le premier challenge est de disposer de sources de données en quantité, propres et variées pour alimenter ces modèles. Si dans certain cas ces données sont distribuées au sein de plusieurs silos, avec un niveau de qualité très variable, dans d’autres elles ne sont simplement pas disponibles ou inexistantes. Un travail préparatoire est donc généralement requis pour construire ce capital « données » essentiel à l’entrainement et à l’exécution de ces modèles d’IA.

 

Dans le cadre de la maintenance prédictive, la mise en place d’une infrastructure IoT est également requise pour capturer ces métriques sous la forme de data brute. Ces données peuvent prendre la forme de séries temporelles ou même d’images apportant un autre axe de connaissance de l’état d’usure d’un matériau. Ces données brutes vont ensuite passer par une série de traitements de raffinage pour devenir en sortie des données structurées, propres et classifiées.

 

Chaîne de production des modèles à grande échelle

 

Les modèles d’apprentissage sont le moteur de l’intelligence artificielle. Ils sont construits et optimisés en environnement de test, appelé souvent data lab, pour ensuite être déployés sur les environnements cibles de production.

 

La première difficulté à lever est de s’assurer qu’un modèle qui marche en laboratoire continuera à être opérationnel en conditions réelles d’utilisation en production. De nombreux aspects peuvent effectivement altérer le fonctionnement et la précision d’un modèle comme le volume et la variabilité des données et leur qualité, ou les évolutions du socle technique.

La mise en place de cette chaîne d’opérationnalisation du modèle et de supervision de ces performances est donc clef pour obtenir un service d’IA optimal et efficient.

 

Dans notre exemple de la maintenance prédictive, ce processus de déploiement peut aussi intégrer la particularité d’une architecture décentralisée permettant d’exécuter ces modèles « on edge » en local sur le réseau où se trouvent les assets à superviser, par exemple, dans le cadre de l’industrie pétrolière, le déploiement des modèles sur une infrastructure locale à chaque site de forage.

 

Ce cas ne nécessite pas seulement le déploiement de quelques modèles mais potentiellement de plusieurs centaines, regroupés au sein de « bundle » chacun couvrant les particuliers de chaque type de machine. Cette exigence de « produire » ces bundles à des rythmes élevés va amener les organisations à penser à « industrialiser » la chaîne de conception et de déploiement de ces modèles, avec des changements tant sur les plans de l’organisation, de la gestion des compétences que des technologies employées.

 

Infrastructure technique flexible et performante

 

L’essor du Deep Learning se basant sur des traitements à forte parallélisation a mis en valeur l’utilisation grandissante d’architecture de calcul à base de processeurs GPU. Avec ses milliers de cœurs le GPU est beaucoup mieux armé qu’un processus CPU, plutôt limité à 8 voire 16 cœurs, pour traiter des matrices de données de plusieurs millions d’entrées.

 

Aujourd’hui les acteurs du cloud public ont tous une offre dédiée GPU pour proposer des services de calcul “on demand”. A l’instar d’AWS se reposant sur la technologie NVidia, ces fournisseurs cherchent à offrir les meilleures performances de calcul pour réduire les délais d’entrainement des modèles et ainsi les délais de mise en œuvre d’un nouveau service « IA ». Cette notion de « time to market » est critique pour rester toujours devant la concurrence en matière de performance et d’efficacité opérationnelle.

 

Ces services « clouds » sont certainement les plus adaptés aux besoins de calculs intensifs de l'IA dans les phases d’entrainement des modèles qui nécessitent à la fois de la flexibilité et de la performance, tandis que les infrastructures « on premise » resteront pertinentes pour l’exécution en production dans des contextes sécurisés.

 

Il est vraisemblable qu’une approche full cloud ou hybride s’imposera de plus en plus auprès des organisations.

 

Ainsi, avec l’IA, l’entreprise est au début d’une nouvelle ère avec autant de nouvelles perspectives que de nouveaux challenges à relever.

retour au menu

inscrivez-vous en ligne pour participer à ai paris 2018

réservez votre badge

contact

 

Vianney LALAIN • Responsable Commercial

+33 (0)1 58 12 06 88

vlalain@corp-agency.com

 

Simon Nicolas

Responsable Inscriptions

+33 (0)1 84 83 02 86

snicolas@corp-agency.com

 

AI Paris est un congrès réalisé par Corp Agency, organisateur d’expositions et de conférences de haut niveau dans le domaine des nouvelles technologies.

Nos autres événements

11-12 juin 2018 • Cité de la Mode et du Design • PARIS

 

 

 

Michael Debbah

Director Consulting

 

Think Big Analytics (Teradata)

 

contact

Vianney LALAIN

Responsable Commercial

+33 (0)1 58 12 06 88

vlalain@corp-agency.com

Antoine Hernoux • Inscription Conférence

+33 (0)1 84 83 02 97

ahernoux@corp-agency.com

Nos autres événements

11-12 juin 2018 • Cité de la Mode et du Design • PARIS