Comment réussir à innover grâce à l’IA et l’analytique dans le système bancaire ?

 

Stéphane Rion

Director Data science France

 

 

Think Big Analytics (Teradata)

 

retour au menu

Les entreprises se sont lancées dans une course poursuite effrénée avec des fraudeurs toujours mieux équipés technologiquement pour leur échapper. L’industrie de la finance et bien sûr les banques en sont une des cibles de choix. D’après une étude de Lexis Nexis, aux USA seulement, la fraude par carte de crédit fait perdre aux banques 190 millions de dollars par an. Quand on parle de fraude bancaire, elle peut prendre plusieurs aspects : la première catégorie, c’est la fraude sous forme d’attaque du système informatique bancaire en lui-même comme par exemple par tentative d’intrusion par malware ou dérobement d’identité. La deuxième catégorie, c’est la fraude depuis un compte ou une transaction client, une banque indienne en a encore fait les frais récemment.

 

 

Cette deuxième catégorie représentait pour Danske Bank un challenge mais aussi une opportunité de moderniser leur système de détection de fraude en s’appuyant sur les nouvelles avancées dans le domaine du Deep Learning (apprentissage en profondeur) et l’expertise de Teradata dans ce domaine, notamment sur la transaction bancaire.

 

Quels types de méthodologies peuvent être appliquées ?

Les méthodes de traitement de la fraude par l’analytique sont variées mais deux grandes catégories s’en démarquent. Les méthodes de type non supervisées type clustering offrant une implémentation rapide car ne nécessitant pas de données d’apprentissage (jeux de données ayant été préalablement labélisés point par point comme fraude ou non fraude) mais souvent moins performantes en termes de détection que les méthodes dites supervisées comme le modèle prédictif ou de classification. C’est sur ce dernier type d’approche que les équipes de Data scientists de Teradata et Danske Bank se sont focalisées.

 

Comment choisir entre pouvoir prédictif et pouvoir d’interprétabilité ?

Il est souvent tentant lors des premiers stages de développement d’un modèle prédictif de vouloir utiliser les « armes » les plus sophistiquées. Les techniques les plus complexes promettant souvent de meilleures performances. Le risque étant de sauter les étapes, en termes de compréhension de la donnée et des différentes phases nécessaires à sa transformation mais aussi d’obtenir un modèle ou une solution dont les résultats sont difficilement interprétables, le fameux effet boite noire si décrié sur les approches Deep Learning.

Think Big Analytics, l’entité conseil de Teradata a misé sur une approche par palier avec une première phase de modélisation plus modeste. L’idée étant de consacrer du temps sur l’analyse et la compréhension de la donnée et de créer un premier modèle que l’on pourrait appeler traditionnel de Machine Learning à base d’arbre de décision. Mis à part le fait que le modèle affichait déjà des résultats bien meilleurs avec un taux de détection de fraude supérieur à 72%, soit 35% de mieux que la solution existante, elle avait aussi les avantages d’être facilement interprétable. L’arbre de décision permettant d’expliquer statistiquement les facteurs et de les corréler à la fraude mais aussi d’offrir une option simplifiée vers la mise en production. La phase d’industrialisation pouvait alors commencer en parallèle de nouvelles itérations pour l’amélioration du modèle par des approches plus complexes de type Deep Learning.

 

L’industrialisation ou la partie cachée de l’Iceberg

La partie industrialisation d’une solution analytique est un peu la partie cachée de l’iceberg en termes de challenge informatique, mais c’est aussi là que se trouve la réelle valeur ajoutée. Pour beaucoup d’entreprise, leurs data scientists vont développer des prototypes sur des outils ou des versions d’outils souvent différents comme Python, R, SAS, Spark etc. et ce nombre ne cesse de grandir, sans parler des différences d’environnements qui vont rendre le passage en production en un véritable casse-tête.

 

Une étude Gartner montre que seulement 15% des projets sur l’analytique atteignent la phase de production. Simplifier, automatiser et packager ce process devient donc vital et Think Big Analytics a utilisé son approche baptisée Analytics Ops à ces fins. Cette approche utilise les « best practices » issues de l’ingénierie software (intégration continue, etc.) de manière à automatiser l’apprentissage, le déploiement et la mise à jour d’un modèle. La « containérisation », ou approche micro services, grâce à Docker simplifiant aussi les problèmes de dépendance entre certaines librairies ou softwares. La mise en place de cette stratégie au sein de la plateforme analytique de Danske Bank a ainsi permis d’itérer plus rapidement sur la partie modélisation et de faciliter l’essai de méthodes plus complexes. En est sorti un modèle de Deep Learning basé sur un réseau de neurones de type convolutif permettant de réduire de façon drastique le nombre de fausses alarmes mais aussi de faire bondir le taux de détection de fraude de 60% par rapport au modèle d’arbre de décision.

 

Danske Bank s’est non seulement dotée en moins d’un an d’un système de détection de fraude ultra performant basé sur les dernières avancées en IA mais a aussi radicalement raccourci le trajet au sein de la banque qui mène de l’idée au « data product ».

 

 

Au-delà de l’IA dans la Finance et la Fraude, Teradata traite beaucoup d’autres domaines comme :

  • Chez un fournisseur de services mobiles en employant des techniques de Deep Learning et de traitement du langage naturel pour gérer plus de 300 types de formules standard en réponse aux questions courantes des clients en deux langues et pour automatiser les requêtes de routine à moindre coût, afin que les agents humains puissent se concentrer sur les demandes complexes nécessitant un traitement personnalisé.
  • Auprès d’un acteur majeur de l’expédition et de la logistique en ayant recours à l’IA sous la forme de techniques de correspondance d’images réduisant le coûteux temps de résolution des « colis égarés », ce qui permet à l’entreprise d’économiser 25 millions de dollars par an – un retour sur un investissement considérable.
  • Ou encore au sein d’un organisme postal gouvernemental qui emploie des processus de reconnaissance d’image et d’apprentissage en profondeur basés sur l’IA pour optimiser le tri de 115 millions de colis par an, ce qui se traduit par un précieux gain d’efficacité opérationnelle, qui réduit le temps de tri et comprime radicalement les coûts.

 

…autant d’exemples et bien d’autres que Teradata peut étudier avec vous et de façon spécifique pour les entreprises françaises.

 

 

Venez en parler sur le stand Teradata à AI Paris (N° B3), les 11 et 12 juin prochains.

 

À voir aussi :

Case study : Danske Bank Fights Fraud With Deep Learning and AI

 

Vidéos :

 

Communiqué de presse : Teradata aide ses clients à accélérer la valorisation de l’IA

 

Infographie sur une étude IA : AI in the Enterprise: Investing in the Future

retour au menu

inscrivez-vous en ligne pour participer à ai paris 2018

réservez votre badge

contact

 

Vianney LALAIN • Responsable Commercial

+33 (0)1 58 12 06 88

vlalain@corp-agency.com

 

Simon Nicolas

Responsable Inscriptions

+33 (0)1 84 83 02 86

snicolas@corp-agency.com

 

AI Paris est un congrès réalisé par Corp Agency, organisateur d’expositions et de conférences de haut niveau dans le domaine des nouvelles technologies.

Nos autres événements

11-12 juin 2018 • Cité de la Mode et du Design • PARIS

 

 

 

Stéphane Rion

Director Data science France

 

 

Think Big Analytics (Teradata)

 

contact

Vianney LALAIN

Responsable Commercial

+33 (0)1 58 12 06 88

vlalain@corp-agency.com

Antoine Hernoux • Inscription Conférence

+33 (0)1 84 83 02 97

ahernoux@corp-agency.com

Nos autres événements

11-12 juin 2018 • Cité de la Mode et du Design • PARIS