Rechercher
  • Yassine Chekroun | Cyfor

Intelligence Artificielle et Machine Learning dans l’assurance

Ce que doivent savoir risk managers et contrôleurs internes


Pour comprendre en synthèse en quoi consiste le Machine Learning, une forme d’intelligence artificielle, ses applications récentes dans l’assurance, et ses enjeux en termes de pilotage des risques.


Le Machine Learning c’est quoi ?

Le « Machine Learning » ou en français « l’Apprentissage Automatique » (AA) est l’une des spécialités de l’intelligence artificielle. C’est un ensemble de méthodes, qui se base sur des modèles mathématiques et statistiques, et qui donne aux ordinateurs la capacité d’apprendre et de résoudre des tâches sans être spécifiquement programmés pour cela. Contrairement aux algorithmes classiques qui appliquent des règles prédéterminées, l’AA apprend et fabrique ses propres règles.

- Prenons quelques exemples pour comprendre ce processus d’autoapprentissage. L’AA se base, pour traiter et interpréter des données,

  • Soit sur des critères prédéfinis. Par exemple, on pré-enseigne à la machine que les voitures ont des roues. La machine sait ensuite classer les objets qu’on lui présente comme étant ou non des voitures.

  • Soit sur des critères que la machine va créer de manière autonome, par recherche de similarités. Par exemple, on présente à la machine à la fois des voitures et des chiens. La machine va apprendre seule à définir la classe d’objet Voiture comme ayant, parmi ses caractéristiques des roues, et la classe d’objet Chien, comme ayant parmi ses caractéristiques des pattes.

  • La machine peut aussi, dans le doute, affecter une probabilité d’appartenance d’un objet à plusieurs classes d’objets. Elle pourra ainsi proposer plusieurs solutions ou scénarios aux problèmes qui lui sont soumis en les associant avec des probabilités (ou des poids) différents.

  • Par ailleurs les données utilisées pourront ne pas être 100% fiables ou complètes ; la machine donnera simplement des valeurs différentes aux différents échantillons mis à sa disposition, cotation qui viendra également moduler les conclusions auxquelles elle aboutit.

- L’AA permet donc de découvrir des répétitions, des modèles, des facteurs communs dans des flux de données et d’en tirer des prédictions en se basant sur des statistiques. C’est donc un ensemble de méthodes permettant de déterminer la meilleure manière de modéliser des données, et sur cette base de simuler ou fournir des prédictions.

- Le Machine Learning est très lié au Big Data, car pour apprendre et se développer, les ordinateurs ont besoin de flux de données à analyser, sur lesquelles s’entraîner. Plus le volume de ces données sera important plus les modèles fabriqués seront pertinents.

Applications dans l’assurance

L’industrie de l’assurance, dans son utilisation récente de l’IA, poursuit globalement trois objectifs : l’amélioration de la relation avec les clients, la prévention du risque de fraude, ou encore l’excellence opérationnelle. Elles peuvent prendre la forme d’une aide à la décision (en proposant plusieurs diagnostics ou décisions possibles) ou directement d’une décision automatique (sans intervention humaine). Voici quelques exemples.


Gestion de la relation Client

- La capacité des assureurs à traiter de gros volumes de données leur permet de mieux connaitre leurs clients, de mieux les segmenter et donc de proposer des tarifs plus finement adaptés aux risques.

- Il existe aussi des algorithmes capables de suggérer et conseiller un prospect et d’aider à la vente de produits.

- La startup britannique Cytora développe des API que les assureurs peuvent intégrer dans leurs processus afin de compléter les informations manquantes dans les déclarations des assurés et ainsi avoir une vision plus précise du besoin assurantiel à couvrir. Elle s’appuie pour cela sur différentes données publiques ou réseaux sociaux.

Gestion réglementaire et des risques

- L’AA sait détecter les fraudes, isoler les demandes atypiques, reconnaitre les pièces falsifiées. Notamment dans le cadre des déclarations de sinistres. L’assureur chinois Ping An, pour traiter les sinistres adressés par vidéo, utilise une application de reconnaissance faciale qui détecte les expressions du visage révélant une gêne.

- Les machines vont également utiliser des données présentes sur les réseaux sociaux pour vérifier la cohérence de certaines des données fournies à l’assureur.

- En matière de LCB-FT, l’ACPR a réalisé une expérimentation et conclu à une amélioration avérée du traitement opérationnel des alertes et des déclarations de soupçon.


Efficacité opérationnelle

- AIG utilise l’IA pour améliorer l’expérience client en fluidifiant la gestion des sinistres. Un robot accueille les assurés 24/24, répond aux premières questions posées et propose si nécessaire l’intervention d’un expert, d’un dépanneur, etc.

- D’autres ont créé des moteurs de traitement automatique des e-mails, qui identifient les objets des messages envoyés par les assurés et les routent vers les bons interlocuteurs.

Impact sur le contrôle interne et la gestion des risques

Faisons un tour d'horizon rapide des différents risques et problèmes posés aux professionnels de la gestion des risques.


Risques stratégiques

- Avec le digital et le big data, les barrières à l’entrée du métier d’assureur (comme la possession d’un portefeuille ancien pour savoir bien tarifer le risque) pourraient sensiblement s’estomper.

- Avec l’automatisation de tâches administratives répétitives, la question qui se pose est d'ordre social : comment réorienter le capital humain vers des tâches de nature différente, notamment pour consacrer plus de temps à des actions orientées directement vers les clients ?

Risques opérationnels

- Naturellement, l’IA peut se tromper et occasionner des pertes opérationnelles, par exemple :

  • Si elle sélectionne de mauvais risque, elle tarifie un risque de manière insuffisante, ou bien elle conduit à payer des sinistres indus.

  • Si le volume des dossiers que l’IA ne sait pas traiter dépasse les capacités des équipes humaines maintenues pour traiter ces cas.

  • Si les contentieux augmentent avec le taux de non-conformité, notamment si les outils d’aide à la vente ne respectent pas le devoir de conseil, ne produisent pas de propositions suffisamment cohérentes avec les besoins des clients.

- La qualité des données utilisées pour construire les modèles est évidemment essentielle et peut largement fausser les résultats si elle n’est pas suffisamment contrôlée. En parallèle, il faut noter la volonté des gouvernements américains ou français de favoriser la transparence en mettant à disposition sur internet de nombreuses données publiques (www.data.gov et www.data.gouv.fr)


- Le Cloud et le big Data sont presque consubstantiels au Machine Learning. Les risques associés au Cloud sont évidemment à souligner (cf. article Cyfor dédié à ce sujet). Auxquels il faut ajouter l’approche américaine d’une IA régalienne qui renforce encore la dépendance européenne aux technologies des Gafa ou des startups américaines. Les américains ont en effet promulgué une règlementation qui leur permet de s’opposer à la vente de systèmes qui contiennent une brique technologique US. Nouvelle illustration de l’extra-territorialité du droit américain.


- La protection des données personnelles.

  • Le RGPD exige une utilisation limitée dans le temps des données personnelles. Ce problème n’est pas nouveau et l’anonymisation des données permet de se conformer à cette contrainte. Mais cette technique a-t-elle encore du sens lorsque l’objectif de l’IA est justement de personnaliser un traitement ?

  • Le RGPD exige de préciser la finalité d’un traitement et de s’y tenir tout au long du traitement, sauf information des personnes concernées. Comment gérer cette contrainte alors meme que l’IA peut le modifier de manière plus ou moins autonome ?

Considérations éthiques

Quel statut accorder à des décisions artificielles prises par des robots ? Comment justifier de résultats émanant de « boîtes noires » ? Comment corriger les biais potentiellement discriminants des algorithmes ?

A qui attribuer la responsabilité des décisions prises par un robot ?

Traçabilité et auditabilité

- Le caractère boite noire de certaines décisions artificielles est-il compatible avec le principe même de l’audit ou du contrôle interne ?


- Pour l’ACPR, plusieurs pistes :

  • Les opérationnels de la première ligne de defense d’un processus concerné par un module d’IA doivent être en partie affectés à une fonction d’annotation manuelle en parallèle de l’algorithme, fournissant ainsi en continu de nouvelles données d’apprentissage, mais surtout un moyen de vérifier que le module d’IA fonctionne correctement. Ces équipes doivent intégrer à la fois des compétences métiers mais aussi techniques (capable de comprendre le fonctionnement interne des modules d’IA).

  • L’intégration, dès la conception des modules d’IA, de la préoccupation audit et contrôle. Et prévoir dès l’origine la mise en place d’outils de monitoring pour le contrôle interne

Sources principales :

- livre blanc de la « fabrique d’assurance » nov. 2019

- recommandations de l’ACPR (gouvernance IA dans le secteur financier - juin 2020)

- CNIL

14 vues
  • LinkedIn - Gris Cercle

12, place de la Défense

92974 Paris la Défense cedex France 

Tél. : +33 1 72 75 72 41