L’interprétabilité, facteur clef de l’adoption de l’Intelligence Artificielle

 

Yannick Martel

Directeur Général BU

 

ERCOM

 

retour au menu

Selon Yannick Martel, Directeur Général de BLECKWEN, fintech spécialisée dans l’Intelligence Artificielle au service de la lutte contre la fraude, l’interprétabilité est aujourd’hui un enjeu majeur pour assurer une large adoption de l’Intelligence Artificielle.

 

Tout d’abord, pourriez-vous nous préciser ce qu’est l’interprétabilité ?

 

L’interprétabilité est la capacité à expliquer la logique et les raisons qui amènent les algorithmes à produire leurs résultats. Elle s’applique à deux niveaux :

 

  • Global : pour comprendre les grandes tendances d’un modèle, c’est-à-dire, les facteurs les plus significatifs à l’échelle d’un ensemble
  • Local : pour analyser précisément les facteurs spécifiques qui ont contribué à une décision du la machine

 

Comment fonctionne-t-elle ?

 

L’interprétation est obtenue par une famille d’algorithmes qui vont permettre d’expliquer la contribution de chaque variable au résultat du modèle.

 

Imaginons que vous dégustiez une délicieuse forêt noire achetée en pâtisserie (= une black box, c’est-à-dire un modèle au fonctionnement interne opaque).

 

Si vous souhaitez refaire ce gâteau chez vous, vous allez rassembler les ingrédients (les data), suivre la recette (les algorithmes) et vous obtiendrez votre gâteau (le modèle). Mais pourquoi n’est-il pas aussi bon que celui de la pâtisserie ? Même si vous avez utilisé exactement les mêmes ingrédients, il vous manque probablement l’astuce du chef pour vous expliquer pourquoi certains ingrédients à certaines étapes sont importants et la manière de les combiner ! Dans cet exemple, les techniques d’interprétabilité vont vous permettre de retrouver les astuces du chef.

 

 

On distingue deux types de techniques d’interprétabilité :

  • les techniques agnostiques : ces techniques font abstraction du modèle auquel elles s’appliquent et analysent uniquement les données utilisées en entrée et les décisions prises en sortie (ex : LIME : Local Interpretable Model-Agnostic Explanations, SHAP : Shapely , etc…)

 

  • les techniques spécifiques : elles s’appuient sur l’architecture inhérente du modèle que l’on souhaite expliquer pour le comprendre (ex : pour le Deep Learning : Deeplift, pour les forêts aléatoires : Ando Saabas, etc).

 

Ces deux techniques peuvent expliquer les résultats d’un modèle au niveau global ou local.

 

Pourriez-vous citer un exemple concret d’application de l’interprétabilité ?

 

Chez BLECKWEN, nous appliquons indifféremment les techniques des deux types en fonction de ce que l’on souhaite expliquer. Par exemple, dans le cadre d’une demande de crédit d’un client, nous allons rechercher les raisons de son scoring en associant des techniques agnostiques et spécifiques, au niveau local. De même, une interprétation globale permet de comprendre la logique d’ensemble d’un modèle et de vérifier les variables importantes (par exemple de s’assurer qu’une variable explicative ne contient pas « trop » d’information, ce qui est en général suspect…).

 

Pourquoi ce besoin de transparence vis-à-vis des modèles de Machine Learning ?

 

L’IA commence à être utilisée pour prendre des décisions critiques voire vitales, par exemple dans le diagnostic médical, la lutte contre la fraude ou contre le terrorisme, le véhicule autonome… Chez BLECKWEN, nous l’appliquons sur des sujets sensibles de sécurité pour aider nos clients à prendre des décisions souvent délicates (ex : accepter un dossier de crédit à 40 000€ ou valider un virement de 3 000 000 € vers un pays à risque). Les enjeux de la maîtrise de l’erreur et de la compréhension de la décision, voire de sa vérification par un expert, sont d’autant plus prégnants.

 

Nos systèmes interagissent avec des êtres humains qui doivent, au final, rester maître de leurs décisions. L’être humain a besoin de comprendre le raisonnement suivi par nos algorithmes, de savoir sur quels éléments l’algorithme s’est basé pour prendre sa décision. L’interprétabilité  leur permet de prendre une décision éclairée de manière efficace et en toute confiance.

 

 

Comment l’interprétabilité devient-elle un enjeu sociétal et politique ?

 

L’actualité récente montre une préoccupation grandissante sur l’utilisation des données personnelles. L’entrée en vigueur du RGPD en ce mois de mai est un pas important pour la protection des données du citoyen Européen. Elle impose également aux entreprises de pouvoir justifier la prise de décision algorithmique. Les techniques pour comprendre les algorithmes sont donc devenues critiques.

 

Aux Etats-Unis également, un mouvement de pensée s’interroge sur le « Fair use » des données des algorithmes afin d’encadrer leurs usages. C’est ce que propose Cathy O’Neil, mathématicienne et data scientist renommée, sur son blog et son livre  « Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy » en nous invitant à rester vigilants dans la confiance que nous accordons au Big Data. L’affaire Cambridge Analytica va certainement contribuer à renforcer cette tendance.

 

La prise de décision algorithmique devient un sujet sociétal, politique et éthique majeur. L’adoption de l’IA ne se fera pas sans transparence. Chez BLECKWEN, nous en avons fait un axe majeur de notre promesse et de nos développements technologiques.

 

Vous souhaitez mieux comprendre les enjeux de l’interprétabilité ?

 

Retrouvez-nous le 12 Juin à 15h00 lors de notre atelier : L’IA interprétable : réussir la collaboration homme/machine.

retour au menu

inscrivez-vous en ligne pour participer à ai paris 2018

réservez votre badge

contact

 

Vianney LALAIN • Responsable Commercial

+33 (0)1 58 12 06 88

vlalain@corp-agency.com

 

Simon Nicolas

Responsable Inscriptions

+33 (0)1 84 83 02 86

snicolas@corp-agency.com

 

AI Paris est un congrès réalisé par Corp Agency, organisateur d’expositions et de conférences de haut niveau dans le domaine des nouvelles technologies.

Nos autres événements

11-12 juin 2018 • Cité de la Mode et du Design • PARIS

 

 

 

Yannick Martel

Directeur Général BU

 

ERCOM

 

contact

Vianney LALAIN

Responsable Commercial

+33 (0)1 58 12 06 88

vlalain@corp-agency.com

Antoine Hernoux • Inscription Conférence

+33 (0)1 84 83 02 97

ahernoux@corp-agency.com

Nos autres événements

11-12 juin 2018 • Cité de la Mode et du Design • PARIS