E-book

Chapitre 6

Développer des modèles d’IA certifiables


Ces dernières années, les premiers équipements médicaux basés sur l’IA sont arrivés sur le marché, une étape importante pour les innovateurs de l'industrie médicale qui utilisent des algorithmes propriétaires de type « boîte noire » pour diagnostiquer ou traiter une maladie.

Le développement de modèles basés sur l’IA qui peuvent être certifiés par une autorité réglementaire constitue un défi majeur pour les développeurs d’équipements médicaux. La plupart des équipements récents approuvés par des organismes de réglementation tels que la FDA aux États-Unis ont été considérés comme présentant un faible risque pour les patients et ont reçu une autorisation préalable à la mise sur le marché ou ont été classés dans la catégorie des équipements présentant un faible degré de risque selon la classification De Novo.

Les autorités réglementaires n’ont pas encore approuvé un équipement considéré comme présentant un risque potentiel élevé pour les patients, tel qu’un algorithme de diagnostic où un faux positif pourrait entraîner une procédure risquée. Des contrôles supplémentaires seront probablement nécessaires pour approuver de tels algorithmes.

Avec MATLAB et Simulink, il est possible non seulement de développer des modèles d’IA, mais aussi de collecter les données nécessaires pour garantir la qualité du logiciel. En outre :

  • MATLAB peut vous aider à créer un modèle d’IA explicable et interprétable.
  • Vous pouvez également suivre un processus formalisé pour valider que le modèle est conforme à la norme IEC 62304 pendant sa phase de développement, ce qui est une condition pour certifier un SaMD (Software as a Medical Device) basé sur l'IA.
section

Interprétabilité et explicabilité

L’interprétabilité et l’explicabilité sont étroitement liées. La notion d’interprétabilité est plus souvent utilisée dans le contexte du Machine Learning classique, tandis que dans le contexte des réseaux de neurones profonds, beaucoup utilisent la notion d’« explicabilité de l’IA ».

Un rectangle horizontal noir, intitulé « data-driven models » (Modèles basés sur les données), se trouve à gauche, il devient gris au milieu, puis blanc à droite, et s’intitule « first-principles models » (Modèles basés sur les principes fondamentaux).

Les modèles se répartissent sur une gamme d’explicabilité allant de ce que l’on appelle les « boîtes noires », qui ne proposent aucune visibilité sur les décisions en sortie, aux « boîtes grises », qui offrent quelques indications, jusqu’à la transparence totale offerte par les modèles traditionnels basés sur les principes fondamentaux.

L’interprétabilité et l’explicabilité représentent le degré auquel les algorithmes de Machine Learning peuvent être compris par les humains. Les modèles de Machine Learning sont souvent qualifiés de « boîtes noires », car leur représentation des connaissances n’est pas intuitive et les processus selon lesquels ils arrivent à prendre des décisions ne sont pas transparents. Il est dès lors souvent difficile de comprendre comment ils fonctionnent.

Les techniques d’interprétabilité contribuent à mettre en évidence la façon dont les modèles de Machine Learning réalisent des prédictions en montrant comment différentes caractéristiques contribuent (ou ne contribuent pas) aux prédictions. Les techniques d’interprétabilité peuvent vous aider à :

  • Valider le fait que le modèle utilise des informations appropriées pour les prédictions.
  • Trouver les biais de votre modèle qui n’étaient pas apparents pendant l’apprentissage.

Certains modèles de Machine Learning, tels que la régression linéaire, les arbres de décision et les modèles additifs généralisés, sont intrinsèquement interprétables. Cependant, l’interprétabilité se fait souvent au détriment de la capacité de prédiction et de la précision.

Graphique montrant l’explicabilité en abscisse, la capacité de prédiction en ordonnée, les modèles sont comparés sur ce plan. Exemple : la régression linéaire est très facilement explicable mais sa capacité de prédiction est faible. Les réseaux de neurones ont une capacité de prédiction élevée et une faible explicabilité.

La sélection d’un modèle implique souvent un compromis entre l’explicabilité et la capacité de prédiction.

L’interprétabilité a été mise en évidence sous forme de ligne directrice standard dans le document sur les bonnes pratiques du Machine Learning pour le développement d’équipements médicaux, publié conjointement par la FDA, Santé Canada et l’Agence britannique de réglementation des médicaments et des produits de santé (MHRA) [6]. Plusieurs techniques peuvent être utilisées pour produire un résultat d’interprétation réussi pour différents modèles en utilisant MATLAB pour le Machine Learning et le Deep Learning. Exemples :

  • Explications locales interprétables par modèle agnostique (méthode de LIME)
  • Tracés de dépendance partielle (méthode PDP)
  • Tracés d’espérance conditionnelle individuelle (méthode ICE)
  • Valeurs de Shapley
  • Cartographie d’activation de classe (CAM)
  • Cartographie d’activation de classe pondérée par le gradient (méthode Grad-CAM)
  • Sensibilité aux occlusions
Arbre de décision pour choisir une approche d’IA basée sur l’interprétabilité du modèle.

Vue d’ensemble des techniques de Machine Learning explicables, des différentes méthodes d’interprétabilité par modèle agnostique et des conseils quant aux modalités de leur application.

L’interprétabilité et l’explicabilité représentent un premier pas en vue de comprendre vos modèles d’IA. Toutefois, au fil des autres étapes du workflow, vous voudrez peut-être aussi vous assurer que votre modèle a été créé avec beaucoup de rigueur. Les réseaux de neurones peuvent être sensibles à un phénomène connu sous le nom d’exemples contradictoires (adversarial examples), où de très petites modifications apportées à une entrée (souvent imperceptibles pour les humains) peuvent entraîner une mauvaise classification de celle-ci. Vous pouvez utiliser la Deep Learning Toolbox Verification Library pour vérifier si un réseau de Deep Learning est robuste face aux exemples contradictoires et pour calculer les limites en sorties pour un ensemble de limites en entrées.

section

Validation et déploiement des modèles

Les fabricants d’équipements médicaux sont responsables de la validation de leurs modèles basés sur l’IA en partenariat avec des chercheurs cliniciens. Le document sur les bonnes pratiques en matière de Machine Learning souligne également l’importance de valider les modèles basés sur l’IA en réalisant des études cliniques qui incluent la population de patients visée [6].

Avec MATLAB, vous pouvez partager une application basée sur l’IA avec des médecins cliniciens ou des hôpitaux pour validation. MATLAB propose des options vous permettant de créer une application autonome qui peut être partagée, installée individuellement pour l’utilisateur final ou hébergée sur un serveur web pour un accès multiutilisateur via un navigateur web.

MATLAB supporte également les fonctionnalités de déploiement d’applications d’IA sur des serveurs de production pour le traitement rapide de requêtes concurrentes, ainsi que des serveurs parallèles pour le traitement de volumes de données patients plus importants en mode batch. Il existe des options permettant de générer du code C/C++ autonome et déployable pour des algorithmes qui pourrait être facilement déployé de manière autonome ou intégré à une application clinique existante pour réaliser des études de validation.

section

Workflows de certification (IEC 62304)

Grâce à MathWorks, il vous est très facile de respecter les exigences de la norme IEC 62304 pour le développement de logiciels en tant qu’équipements médicaux. Les workflows MATLAB intègrent la vérification et la validation dans le workflow de développement de logiciels. Le logiciel est donc testé et vérifié de manière exhaustive avant son intégration dans un équipement médical.

MATLAB supporte également les processus de développement logiciel en offrant des fonctionnalités pour l'implémentation d'une planification détaillée du développement logiciel, l'analyse des exigences logicielles, le design d’architectures logicielles, le design logiciel détaillé, l’implémentation et les tests d’unités logicielles, l’intégration et les tests logiciels ainsi que les tests de systèmes logiciels dans le cadre du workflow de développement d’équipements médicaux. De plus, MATLAB et Simulink vous aideront à évaluer l’impact d’une potentielle modification logicielle en permettant la simulation des éléments logiciels impactés.

MATLAB générera la plupart des documents de conformité réglementaire requis selon la norme IEC 62304 pour le développement et la maintenance du logiciel. Pour en savoir plus sur les workflows de la norme IEC 62304 avec MATLAB et Simulink, consultez les livres blancs sur le développement de logiciels embarqués conformes à la norme IEC 62304 pour les équipements médicaux.

section

Khawaja obtient la certification IEC 62304

Challenge

L’analyse des données d’électrocardiogramme (ECG) est essentielle pour la reconnaissance et le traitement des maladies cardiaques.

Solution

Les ingénieurs de Khawaja Medical Technology ont développé des algorithmes innovants et avancés basés sur l’IA qui automatisent entièrement l’analyse des signaux ECG. Ces algorithmes permettent de surveiller et d’analyser en temps réel les signaux ECG d’un sujet au repos, faisant de l’exercice ou portant un moniteur Holter qui peut suivre son rythme cardiaque sur plusieurs jours. L’équipe d’ingénieurs de Khawaja Medical Technology devait développer des algorithmes sophistiqués de traitement et d’analyse des signaux ECG. Elle devait également s’assurer de la conformité avec les nombreuses normes internationales régissant le logiciel d'équipements médicaux, notamment la norme IEC 62304.

Schéma du traitement des signaux ECG avec les signaux ECG en entrée et les résultats d’analyse en sortie.

Algorithmes d’analyse des signaux ECG modélisés dans Simulink.

Résultats

En travaillant avec Simulink, l’équipe a réduit le temps de développement de 40 % par rapport aux approches traditionnelles en respectant les workflows de référence de l’IEC Certification Kit pour vérifier et valider les modèles et le code généré automatiquement. Elle a également accéléré la certification et l’audit avec TÜV SÜD pour les normes ISO® 13485 et IEC 62304.

Références

[6] « Good Machine Learning Practice for Medical Device Development: Guiding Principles ». U.S. Food and Drug Administration, Health Canada Santé Canada, Medicines & Healthcare products Regulatory Agency, October 2021. https://www.fda.gov/media/153486/download