Pour une IA transparente, équitable et explicable

permettant de favoriser l’adoption en entreprises

par Vincent PERRIN, Watson AI Technical Leader, IBM

L’intelligence artificielle est sur toutes les lèvres, elle est vue comme un catalyseur de la transformation profonde que traverse notre société et les entreprises. Selon une étude IDC, 94% des entreprises considèrent que l’IA est un avantage compétitif clé, mais seulement une entreprise sur 20 a déjà incorporé de l’IA dans ses processus métiers.

En effet, 60% des entreprises voient dans les contraintes réglementaires une barrière à l’implémentation de l’IA, comme dans le manque de confiance et de transparence de celle-ci. Les lignes métiers ont besoin de comprendre comment un système d’IA propose un certain résultat permettant une prise de décision et également s’il n’y a pas de biais dans les données…

Mettre en œuvre une IA éthique est fondamentale pour assurer sa bonne et pleine adoption.

Le 8 avril 2019, un comité de 52 experts dont Francesca Rossi (Ethics AI leader chez IBM) a édicté 7 principes en matière d’éthique pour une IA digne de confiance, établissant ainsi une norme mondiale pour faire progresser l’IA de manière éthique et responsable.

  1. Autonomie de l’humain dans la prise de décision
  2. Robustesse technique et sécurité
  3. Confidentialité et gouvernance des données
  4. Transparence
  5. Diversité, non-discrimination et équité
  6. Bien-être sociétal et environnemental
  7. Responsabilité

Je propose à votre réflexion trois thèmes importants :

Bias, Equité & Discrimination

Une IA est aussi bonne que le jeu de données d’entraînement est bon.

En tant que Data Scientist, vous devez concevoir un nouveau modèle de scoring de crédit. Vous décidez d’utiliser un historique de 50 ans de crédit bancaire pour améliorer la performance de ce modèle. C’est une bonne approche, mais, ce jeu sera de toute évidence biaisé (au détriment des femmes) puisque que la gente féminine réalisait peu de demande de crédit il y a 50 ans.

Étant donné que de nombreux systèmes d’intelligence artificielle, tels que ceux comprenant des composants d’apprentissage automatique supervisé, reposent sur d’énormes quantités de données pour apprendre correctement, il est important de comprendre en quoi les données influencent le comportement du système. Par exemple, si les données de formation sont biaisées, c’est-à-dire qu’elles ne sont pas assez équilibrées ou inclusives, le système d’IA formé sur ces données ne sera pas en mesure de généraliser correctement et pourra éventuellement prendre des décisions injustes pouvant favoriser certains groupes par rapport à d’autres.

Quelques solutions pour appréhender plus avant ce domaine : What If de Google, Accenture’s new Fairness Tool, ou AI Fairness 260 et Watson Openscale d’IBM.

Interprétation et Explicabilité

Imaginez la situation suivante : « Vous venez de trouver la maison de vos rêves. Vous vous rendez donc chez votre banquier pour votre demande de prêt. Après avoir saisi quelques informations pour compléter votre dossier, votre conseiller vous annonce que votre demande a été refusée. Immédiatement, vous l’interrogez pour comprendre ce refus. Celui-ci vous répond qu’il n’a pas l’information, il a « juste » saisi vos données et l’ordinateur lui m’a donné la réponse. » Seriez-vous satisfait par cette situation ?

Certaines techniques d’apprentissage automatique, bien que très efficaces du point de vue de la précision, sont très opaques pour comprendre comment elles prennent des décisions. La notion d’IA « boîte noire » (« Black-Box ») fait référence à de tels scénarios, dans lesquels il n’est pas possible de retracer la raison de certaines décisions, souvent lié aux nouveaux algorithmes de type réseau de neurones.

Quelques solutions pour appréhender plus avant ce domaine de XAI (Explainable AI): LIME, DARPA XAI ou Watson Openscale.

Robustesse des systèmes d’IA

Les dernières années ont vu des progrès considérables dans le développement de l’intelligence artificielle (IA). Les systèmes d’IA modernes réalisent des performances de niveau humain pour des tâches cognitives telles que la reconnaissance d’objets dans des images, l’annotation de vidéos, la conversion de la parole en texte ou la traduction entre différentes langues. Une propriété fascinante des réseaux de neurones est qu’ils sont généralement très précis, mais vulnérables aux soi-disant exemples contradictoires (Adversarial example). Il a été démontré par différents chercheurs que des systèmes apprenants pouvaient être floués par des exemples contradictoires. “L’Adversarial machine learning” peut être appliquée pour diverses raisons, la plus courante étant d’attaquer ou de provoquer un dysfonctionnement dans les modèles d’apprentissage automatique standard.

Les attaques contradictoires (‘adversarial’ en anglais) constituent une menace réelle pour le déploiement de systèmes d’intelligence artificielle dans des applications critiques pour la sécurité. Des modifications pratiquement indétectables des images, de la vidéo, de la parole et d’autres données peuvent être conçues pour brouiller les systèmes d’intelligence artificielle. De telles modifications peuvent être conçues même si l’attaquant ne dispose pas de la connaissance exacte de l’architecture du DNN ni de l’accès à ses paramètres. Encore plus inquiétant, des attaques contradictoires peuvent être lancées dans le monde physique : au lieu de manipuler les pixels d’une image numérique, les adversaires pourraient échapper aux systèmes de reconnaissance faciale en portant des lunettes spécialement conçues ou en mettant en échec les systèmes de reconnaissance visuelle dans les véhicules autonomes.

Des solutions permettent de se prémunir de ce type d’attaque comme IBM Adversarial Robustness Toolbox et d’autres. Venez les découvrir sur le stand IBM (A8) lors du salon AI Paris les 11 et 12 juin prochains.

Leave a Reply