Application de l'intelligence artificielle dans l'assurance en 2025
L'usage de l'IA générative en entreprise semble exponentiel. Quelles limites cette technologie présente-t-elle malgré tout ?
En réalité, il faut distinguer deux types d'usage pour répondre à cette question.
D'un côté, l'usage des outils grands public comme ChatGPT ou les générateurs d'images comme Midjourney, Dall-e ou Flux1 qui se développe effectivement, de façon exponentielle chez les professionnels qui l'utilisent d'abord pour réaliser des recherches plus rapidement que via Google, pour analyser de longs documents techniques, réglementaires et commerciaux, pour rédiger des comptes-rendus de réunions ou de visioconférence, des réponses à des questions de clients et de collaborateurs ou encore pour créer des contenus commerciaux pour alimenter leurs newsletters, leurs réseaux sociaux, leur site web ou leurs campagnes publicitaires.
Pour ce type d'usage, la principale limite des outils d'IA générative, est le manque de maîtrise des utilisateurs: il est très facile d'obtenir des réponses et images aseptisées de ChatGPT et de Midjourney. Mais, pour obtenir des textes avec une tonalité précise, des images adaptées au contexte français ou encore de long documents sans erreur, il faut maîtriser le prompt engineering ou l'art de poser les questions aux outils d'IA générative pour obtenir exactement ce que l'on attend.
D'un autre côté, l'IA générative est aussi utilisée par les services IT des acteurs du monde de l'assurance pour automatiser des processus ou une partie de la relation client.
Ce type d'usage ne se développe, lui, pas de façon exponentielle mais progressive car il se heurte aux limites intrinsèques de l'IA générative, qui parvient toujours à répondre, mais pas toujours avec une réponse juste. Pour le chatbot d'un site d'ecommerce, on peut tolérer un taux de réponses avec erreur de 2% ou 3%, mais pour un acteur dans le domaine de l'assurance, c'est difficilement acceptable. Pour dépasser ces limites, cinq grands types d'approche existent. Tout d'abord, certains fournisseurs fournissent des briques de sécurisation des applications qui sollicitent leurs APIs. Les développeurs de ces applications peuvent aussi limiter les risques au grâce au prompt engineering des API, qui est très complexe car il a pour objectif que la réponse renvoyée par l'API soit juste dans 100% des requêtes transmises, complète et exempte d'hallucination.
Une autre technique consiste à perfectionner le système de Retrieval Augmented Generation qui a été mis en place par les développeurs pour que le LLM sollicité via l'API, utilise la base de connaissance de l'entreprise pour répondre de façon précise.
Mais, il existe de nombreuses approches pour convertir les données de l'entreprise en matière gérable par le LLM pour sélectionner celles qui vont être transmises au LLM par l'API. Il faut souvent de nombreuses itérations pour que le système de RAG soit efficient. Enfin, le premier LLM sélectionné n'est peut-être pas le bon et il faut peut-être en changer. Aujourd'hui, il y a, en effet, plus de 100 modèles (GPT4o, o1, Claude Sonnet, Claude Haiku, Gemin 1.5, Mistral Large, Mixtral 8X7B...)qui, ont, chacun, leurs forces et faiblesses.
Pour info, il y a un autre sujet très technique: le challenge du déploiement. En gros, c'est déjà difficile de mettre au point un prototype d'application qui marche bien, mais lorsque tu mes en production à l'échelle industrielle, tu te retrouves à devoir gérer les sujets suivants. C'est tellement complexe que tu as des services en ligne uniquement dédié à cela
- Infrastructure et ressources computationnelles
Puissance de calcul
Stockage
Mise à l'échelle (gestion de la charge) - Rapidité
Temps de réponse
Optimisation des inférences - Intégration
Intégration avec les autres briques et systèmes de l'entreprise
Assurer le fonctionnement sur différents systèmes d'exploitation - Sécurité et protection des données
Chiffrement des données sensibles.
Isolation des environnements pour prévenir les fuites de données entre utilisateurs. - Monitoring et maintenance
Surveillance des performances et anomalies
Mises à jour et versioning - Gestion de la mémoire et des ressources
Optimisation de la mémoire particulièrement pour les modèles volumineux.
Allouer dynamiquement les ressources en fonction de la demande. - Traitement du langage naturel avancé
Multilinguisme
Compréhension du contexte pour des réponses plus pertinentes (déjà difficile dans le cadre des tests, mais encore plus difficile en production quand des utilisateurs se comportent de façon inattendue)
Comment la voyez-vous évoluer dans les mois et années à venir ?
Aujourd'hui, j'observe trois grands types d'évolution du point de vue technique.
Des fournisseurs d'IA spécialisées
Des éditeurs ajoutent des couches métiers sur les LLMs afin de proposer des applications d'IA générative métiers clé-en-main pour éviter aux entreprises de repasser par toutes les étapes de l'optimisation des applications d'IA générative: prompt engineering, RAG, fine-tuning des modèles, etc... Ces fournisseurs offrent des modèles pré-entraînés optimisés pour des tâches ou des domaines particuliers, tels que la synthèse d’images médicales, la génération de code, la création de jingle musicaux, ou l’analyse de documents juridiques. Mais, dans le domaine de l'assurance, ces modèles ne sont pas encore arrivés.
L'IA agentique
Les LLMs actuels savent répondre, de façon ponctuelle, à des requêtes isolées et simples, mais ne sont pas capables de déterminer la suite d'actions à mener, à partir d'un objectif fixé par l'utilisateur. L'IA agentique tente de dépasser ce problème en créant des agents un peu autonomes, capables de raisonner, de planifier une suite d'actions simples (se connecter à un site web, récupérer des informations d'une base de données...) et éventuellement de déclencher des actions sur des systèmes extérieurs (remplir un formulaire web, classer un document dans une base de données, envoyer un email...). En France, une start-up dénommée "H" et spécialisée dans l'IA agentique, a réalisé une levée de fonds de 220 millions d'euros. Parmi ses actionnaires, on trouve UI Path, un leader mondial de la Robotic Process Automation, une technologie d'automatisation utilisée depuis les années 2010, par des acteurs de l'assurance tels que AG2R ou Generali France.
Neuro symbolic IA
Pour dépasser certaines des limites de l'IA générative actuelle, certains chercheurs explore une nouvelle branche de l'IA, la neuro-symbolic AI qui vise à combiner la puissance des modèles neuronaux sur lesquels l'IA générative repose et la robustesse de l’IA symbolique, fondée sur la logique, les règles et les connaissances structurées. Cela permettrait de créer des modèles plus précis, plus prévisibles, plus fiables et plus interprétables car ils utiliseraient des concepts, des connaissances structurées pour raisonner, inférer et agir.
La législation freine-t-elle l'adoption de l'IA générative ?
La législation freine effectivement, en partie l'adoption de l'IA générative et on le constate tous les jours. Dernier exemple en date, l'indisponibilité de SORA, le nouveau modèle de génération de vidéo d'OpenAI, en Europe, pour des problèmes d con alors qu'il l'est disponible dans le reste du monde (à l'exception de la Chine) parce qu'OpenAI doit s'assurer avec l'AI Act (loi sur l'intelligence artificielle), le DSA (Digital Services Act), le DMA (Digital Markets Act) et, enfin, le RGPD (Règlement général sur la protection des données).
Les compagnies d'assurance doivent non seulement surmonter les obstacles techniques décrits précédemment, mais, elles doivent en plus, s'assurer de la conformité réglementaire, sans cesse, plus complexe, de leurs applications d'IA et il en va de même pour leur fournisseur.