DeepBreath: identifier les maladies respiratoires
En traversant les nombreux petits passages à l’intérieur de nos poumons, l’air produit un bruit distinctif. Lorsque ces passages sont rétrécis par une inflammation asthmatique ou obstrués par les sécrétions infectieuses de la bronchite, le son se modifie de façon caractéristique. La recherche de ces indices diagnostiques à l’aide d’un stéthoscope appliqué sur la poitrine, une procédure appelée auscultation, est devenue un élément incontournable de presque tous les examens de santé.
Pourtant, malgré deux siècles d’expérience avec les stéthoscopes, l’interprétation de l’auscultation reste très subjective, chaque médecin entendant quelque chose de différent. En effet, selon l’endroit où l’on se trouve dans le monde, un même son peut être décrit comme un grésillement, un bonbon pétillant, du velcro, du riz qui frit ou tout autre chose. La précision dépend également du niveau d’expérience du personnel médical et de sa spécialisation.
Ces complications en font un défi idéal pour l’apprentissage profond, qui a le potentiel de différencier les motifs sonores de manière plus objective. L’apprentissage profond s’est déjà révélé capable d’améliorer la perception humaine dans l’interprétation d’une série d’examens médicaux complexes, tels que les radiographies et les IRM.
Publiée dans Nature Digital Medicine, une récente étude du groupe de recherche intelligent Global Health (iGH) de l’EPFL situé au Laboratoire d’apprentissage machine et d’optimisation, un pôle de spécialistes interdisciplinaires en intelligence artificielle de la Faculté informatique et communications, décrit l’algorithme d’intelligence artificielle DeepBreath, qui montre le potentiel d’une interprétation automatisée du diagnostic des maladies respiratoires.
«Ce qui rend cette étude particulièrement unique, c’est la diversité de la banque de sons d’auscultation et la rigueur avec laquelle ces sons sont collectés», déclare la principale autrice de l’étude, Mary-Anne Hartley, médecin et scientifique des données biomédicales en charge de l’iGH. Près de 600 enfants en consultation externe ont été sélectionnés dans cinq pays: la Suisse, le Brésil, le Sénégal, le Cameroun et le Maroc. Les bruits respiratoires ont été enregistrés sur des patientes et patients de moins de quinze ans présentant les trois types de maladies respiratoires les plus courants: pneumonie confirmée par radiographie, bronchiolite diagnostiquée cliniquement et asthme.
«Les maladies respiratoires sont la première cause de mortalité évitable dans cette tranche d’âge», explique Alain Gervaix, chef du Département de médecine pédiatrique aux HUG et fondateur d’Onescope, la startup qui mettra sur le marché ce stéthoscope intelligent intégrant l’algorithme DeepBreath. «Ce projet est un bon exemple d’une collaboration fructueuse entre les HUG et l’EPFL, mais aussi entre le domaine des études cliniques et des sciences de base. Le pneumoscope DeepBreath est une grande avancée pour le diagnostic et la manière dont on gère les maladies respiratoires », continue-t-il.
L’équipe de Mary-Anne Hartley dirige le développement de l’intelligence artificielle pour Onescope. Elle est particulièrement enthousiaste quant au potentiel de l’outil dans les environnements isolés et à faibles ressources. «Les outils de diagnostic réutilisables et sans consommables tels que ce stéthoscope intelligent présentent l’avantage unique d’une durabilité garantie, indique-t-elle en ajoutant: Les outils d’IA ont également le potentiel de s’améliorer en permanence et j’espère que nous pourrons étendre l’algorithme à d’autres maladies respiratoires et à d’autres populations grâce à des données supplémentaires.»
DeepBreath est entraîné sur des patientes et patients de Suisse et du Brésil, puis validé sur des enregistrements en provenance du Sénégal, du Cameroun et du Maroc, donnant des informations sur la généralisation géographique de l’outil. «Vous pouvez imaginer que les différences sont nombreuses entre les services d’urgence de la Suisse, du Cameroun et du Sénégal, affirme Mary-Anne Hartley qui cite quelques exemples: Le paysage sonore des bruits de fond, la façon dont la clinicienne ou le clinicien tient le stéthoscope qui enregistre le son, l’épidémiologie et les protocoles locaux de diagnostic.»
Avec suffisamment de données, un algorithme doit être capable de faire face à ces nuances et de trouver le signal parmi les bruits. DeepBreath a maintenu une performance impressionnante dans divers sites malgré le nombre réduit de patientes et patients, ce qui indique que des améliorations sont encore possibles avec davantage de données.
L’étude a apporté une contribution toute particulière en incluant des méthodes visant à démystifier le fonctionnement interne de la «boîte noire» de l’algorithme. Les autrices et auteurs ont pu démontrer que le modèle utilisait effectivement le cycle respiratoire pour établir ses prédictions et montrer quelles étaient les parties les plus importantes de ce cycle. Prouver que l’algorithme utilise réellement les sons respiratoires, au lieu de «tricher» en utilisant les indices biaisés dans le bruit de fond, est une lacune importante dans la littérature actuelle et peut altérer la confiance dans l’algorithme.
L’équipe multidisciplinaire travaille à la préparation de l’algorithme en vue d’une utilisation concrète dans son stéthoscope intelligent, le Pneumoscope. La prochaine étape importante consistera à répéter l’étude sur un plus grand nombre de patientes et patients en utilisant les enregistrements de ce stéthoscope numérique nouvellement mis au point, qui enregistre également la température et l’oxygénation du sang. «La combinaison de ces signaux permettra probablement d’améliorer encore les prévisions», prédit Mary-Anne Hartley.