David Gruson Fondateur d'Ethik-IA
Pourquoi vous êtes-vous intéressé à l’éthique de l’IA ?
David Gruson : Nous assistons ces dernières années à un mouvement de diffusion de cas d’usages en santé qui nous a mené à mettre sur la table ces notions de régulation positive et de garantie humaine de l’IA. Un exemple : en 2022, l’Union Française pour la Santé Bucco- Dentaire (UFSBD) présentait le programme Oralien de télésurveillance bucco-dentaire, première solution d’IA en santé ayant bénéficié de la mise en place d’un collège de garantie humaine de l’IA. Ce dispositif est basé sur une supervision humaine des conclusions rendues par l’IA afin de garantir la qualité des recommandations et d’assurer la sécurité des patients. Le principe s’est diffusé depuis en biologie, en pharmacie, en cardiologie, en oncologie et dans le champ mutualiste sous l’égide de la FNMF il y a 4 ans. Je suis d’ailleurs intervenu au Congrès de la Mutualité en octobre 2023 à Rennes au cours duquel Ethik-IA, Mutuelles Impact et la MGEN ont annoncé le lancement d’un programme pilote destiné à faciliter la diffusion des programmes de garantie humaine de l’IA.
Comment garantir ce principe de garantie humaine de l’IA en santé ?
D.G. : La loi du 2 août 2021 relative à la bioéthique a introduit une obligation d’information à la charge des professionnels utilisant une IA en matière de santé. Le mouvement a suivi par l’adoption le 13 mars 2024 par les eurodéputés d’un règlement européen qui a pour objectif d’encadrer juridiquement le développement de l’IA. Ce dernier reprend dans son socle les notions que nous défendons de régulation positive et la garantie humaine. Nous construisons ainsi peu à peu des écosystèmes de garanties humaines de l’IA, appuyés par ce cadre législatif.
Quelle est la position du Comité consultatif national d’éthique (CCNE) sur l’IA en santé ?
D.G. : J’ai eu l’honneur de co-diriger le groupe de travail de préparation de la loi de 2021 au sein du CCNE. Dans deux avis, ce dernier alerte sur le fait que le risque éthique majeur associé à l’IA serait de s’y opposer, de la bloquer car cela entraînerait un risque de perte de chance, pour les patients atteints de cancers notamment. Le CCNE a une position ouverte à l’innovation mais à condition que soit mise en œuvre une garantie humaine pour éviter des phénomènes de délégation de compétences à la machine sans supervision par des professionnels de santé.
Le secteur mutualiste français est-il en avance sur le sujet de l’IA ?
D.G. : Le secteur mutualiste est plutôt en avance dans la réflexion sur la structuration de l’IA. Les mutuelles sont au cœur de la diffusion de l’IA, de nombreuses initiatives se prennent sur le terrain de l’IA générative, notamment pour leurs besoins propres : agents conversationnels, parcours client, etc. L’enjeu pour elles aujourd’hui est de garantir la sécurité humaine de ces outils en confiant leur pilotage à des experts et en créant des écosystèmes de partage en cas de recours à l’IA. Sur la partie IA de prévention, je pense qu’il faut aller plus loin dans le partage des données. Nous avons besoin de données médicales, par exemple des images pour mettre en place un système d’IA de reconnaissance d’images, et un besoin de contextualiser ces données au regard des parcours patients. Ces données médicales se trouvent aujourd’hui uniquement dans le système de l’assurance maladie. Le CCNE a proposé que soit créée une plateforme nationale sécurisée de collecte et de traitement des données de santé, une sorte de hub des données, pour un partage plus large des informations. Les mutuelles, qui disposent des données sur le parcours de prise en charge des adhérents /patients, sont donc en position forte pour développer ces outils d’IA en prévention. Le cadre européen va leur donner davantage de marges de manœuvre.
Quelles sont les prochaines étapes pour les mutuelles, notamment dans le domaine réglementaire ?
D.G. : La réglementation européenne sur l’IA entrera en vigueur dans un an pour l’IA générative et dans trois ans pour l’ensemble des systèmes d’IA en santé et dans le champ mutualiste avec la même force opposable que le RGPD, c’est-à-dire des sanctions financières oscillant entre 2 à 6% du chiffre d’affaires. Cette disposition s’applique déjà en France où le contrôle est assuré par la CNIL avec l’appui des autorités sectorielles (ACPR, HAS). Les mutuelles devront donc appliquer ce protocole de garantie humaine, effectif, traçable et proportionné. L’intérêt de ce cadre juridique est de donner plus de marges de manœuvres pour développer des traitements algorithmiques et des pilotages par les données. Il ouvre un champ de perspectives à condition de s’ouvrir à l’innovation tout en monitorant les risques éthiques qui lui sont associés, c’est le principe de la régulation positive. On pourra essayer ainsi de maîtriser les risques dans un vrai esprit de gestion des risques, un domaine que les mutuelles connaissent parfaitement.
Retrouvez l'ensemble des parutions
DEVENEZ PARTENAIRE
Intéressé par nos offres et services ?
Prenez rendez-vous avec un de nos conseillers UNMI