E-book

Chapitre 4

L’IA pour aider au traitement des maladies et des problèmes de santé


Avec leur capacité à absorber et analyser de grands volumes de données et à générer une analyse dans un délai très court, les systèmes d’IA sont un outil très puissant pour le traitement des maladies et des problèmes de santé. À titre d’exemple, l’intégration de l’IA dans des équipements médicaux munis de plusieurs capteurs pourrait contribuer à accélérer la détection d’un problème clinique ou offrir des informations permettant d’améliorer la qualité du traitement. Grâce à l’IA, les vastes et complexes données physiologiques générées par le corps humain pourraient potentiellement être interprétées plus rapidement et avec davantage de précision pour préparer une intervention médicale.

Une main saisissant une tasse et versant son contenu dans un verre. L’avant-bras de la personne est recouvert d’électrodes.

Une interface cerveau-machine basée sur l’IA permet à un homme dont le bras est paralysé de verser du contenu dans une tasse. (Crédit : Battelle)

Challenge

Pour les patients atteints de sclérose latérale amyotrophique (SLA), la communication devient de plus en plus difficile à mesure que la pathologie progresse. Dans de nombreux cas, la SLA (également connue sous le nom de maladie de Charcot) entraîne un syndrome d’enfermement, dans lequel le patient est entièrement paralysé mais conserve ses fonctions cognitives. Les suiveurs oculaires, et plus récemment les interfaces cerveau-machine basées sur les signaux électroencéphalogrammes (EEG), permettent aux patients atteints de SLA de communiquer en épelant des phrases lettre par lettre, mais cela peut prendre plusieurs minutes pour communiquer même un simple message.

Solution

Des chercheurs de l’Université du Texas à Austin ont développé une technologie non invasive qui utilise des ondelettes, le Machine Learning et des réseaux de neurones de Deep Learning pour décoder les signaux de magnétoencéphalographie (MEG) et détecter des phrases entières à mesure que le patient imagine qu’il les prononce. L’algorithme fonctionne quasiment en temps réel ; lorsque le patient imagine une phrase, celle-ci s’affiche immédiatement.

  • Avec l’aide de Wavelet Toolbox™, les chercheurs ont débruité et décomposé les signaux MEG en bandes d’oscillations neuronales spécifiques (oscillations gamma élevé, gamma, alpha, bêta, thêta et delta) en utilisant des techniques d’analyse multirésolution en ondelettes.
  • Ils ont ensuite extrait les caractéristiques des signaux et utilisé Statistics and Machine Learning Toolbox pour calculer un large éventail de caractéristiques statistiques. Ils ont utilisé les caractéristiques extraites pour entraîner un classificateur par Support Vector Machine (SVM) et un classificateur par réseau de neurones artificiels peu profonds, ce qui leur a permis d’obtenir une référence de précision en classant les signaux neuronaux correspondant à cinq phrases. Cette méthode a donné une précision d’environ 80 % et a servi de référence de précision.
  • L’équipe a ensuite utilisé les scalogrammes ondelettes des signaux MEG pour représenter les caractéristiques riches et s’en est servi pour entraîner trois réseaux de neurones à convolution profonds (AlexNet, ResNet et Inception-ResNet) afin d’effectuer le décodage de la parole avec les signaux MEG. Grâce à l’association des ondelettes et des techniques de Deep Learning, la précision globale a augmenté jusqu’à 96 %.
  • Pour accélérer l’apprentissage, l’équipe a utilisé un serveur de calcul parallèle à sept GPU avec Parallel Computing Toolbox.

Résultats

Grâce à MATLAB, l’équipe a été en mesure d’itérer rapidement entre les différentes méthodes d’extraction des caractéristiques et d’entraîner plusieurs modèles de Machine Learning et de Deep Learning, ce qui lui a permis d’obtenir une précision globale du décodage de la parole avec les signaux MEG de 96 %. MATLAB leur a permis de combiner les techniques en ondelettes et le Deep Learning en quelques minutes seulement, soit beaucoup plus rapidement qu’avec les autres langages de programmation. En outre, l’équipe a été en mesure de passer à l’utilisation de plusieurs GPU pour l’apprentissage en ne modifiant qu’une seule ligne de code. Grâce à l’association de Parallel Computing Toolbox et d’un serveur doté de sept GPU, l’apprentissage des réseaux a été accéléré par 10 environ.

Un processus en quatre étapes qui montre, de gauche à droite, la collecte des données MEG, le traitement des données en scalogramme, l’interprétation des données des réseaux de neurones et le résultat de la parole décodée.

Conversion de données issues de l’activité MEG du cerveau en phrases. (Crédit : Université du Texas à Austin)