L’intégration de l’intelligence artificielle dans le secteur de l’assurance est encadrée par un double niveau de réglementation :
- les règles spécifiques au secteur assurantiel comme la gestion des risques, la transparence ou la protection des assurés,
- et par les cadres juridiques nationaux et internationaux relatifs à l’IA, notamment en matière de protection des données, d’éthique et de responsabilité algorithmique.
Des textes comme le Règlement Général sur la Protection des Données (RGPD), en vigueur dans l’Union Européenne, s’appliquent de manière naturelle dès lors que l’IA traite des données personnelles. C’est notamment le cas des modèles d’IA générative, souvent entraînés sur de vastes ensembles de données pouvant contenir des informations sensibles.
Règlement européen sur l'intelligence artificielle (AI Act)
En 2024, l'Union Européenne a mis en place un Règlement européen sur l'Intelligence Artificielle (AI Act) qui est entré en vigueur en août.
Le AI Act établit un cadre légal d’utilisation de l’IA en la classant par niveau de risque. Ainsi, il impose des exigences strictes aux systèmes d'IA jugés à haut risque et interdit certaines pratiques jugées inacceptables. Cette réglementation s'applique à tous les secteurs utilisant l'intelligence artificielle, dont celui de l'assurance.
L’objectif est de garantir une IA responsable, transparente et respectueuse des droits fondamentaux au sein de l'Union Européenne.
The Colorado Artificial Intelligence Act (CAIA)
Aux États-Unis, la réglementation de l’utilisation de l’intelligence artificielle (IA) dans le secteur de l’assurance n’est pas encore harmonisée au niveau fédéral, toutefois elle évolue rapidement à travers diverses initiatives.
Le Colorado Artificial Intelligence Act (CAIA), promulgué le 17 mai 2024 et qui sera applicable au Colorado à partir du 1er février 2026, encadre de manière stricte les systèmes d'IA présentant un risque élevé.
Cette loi qui pourrait ultérieurement s’étendre à d’autres Etats de l’Union, concerne les entreprises qui créent ou utilisent des IA ayant un impact sur les droits fondamentaux des personnes ou leur accès à des services essentiels, comme dans le secteur financier.
Le projet de réglementation de l'utilisation de l'IA au Brésil
Au Brésil, le projet de loi 2338/2023 sur l’intelligence artificielle a été approuvé par le Sénat en décembre 2024.
Le texte vise à établir un cadre juridique complet autour de la sécurité, de la transparence et de la protection des droits humains. Il prévoit notamment la classification des systèmes d’IA en fonction de leur niveau de risque pour la vie humaine ou les droits fondamentaux.
La réglementation chinoise sur l'intelligence artificielle
La Chine a mis en place une réglementation progressive pour encadrer l'usage de l'intelligence artificielle, couvrant la protection des données personnelles, la régulation des algorithmes, la lutte contre les deepfakes et l'encadrement de l'IA générative.
Le règlement sur la protection des données, promulgué en 2021, a marqué le premier cadre réglementaire contraignant. La même année, le pays a publié un premier ensemble de directives sur l’éthique de l’IA. Depuis, plusieurs textes de loi voient le jour.
La loi la plus récente a été publiée par la Cyber Administration of China (CAC) en avril 2023, elle encadre l'IA générative.




