Un logiciel modulaire pour la reconstruction d'images scientifiques
Les télescopes, microscopes, tomographes et autres moyens d’acquisition permettent de voir, parfois en mouvement, toujours plus petit, plus loin, ou encore de visualiser l’intérieur du vivant comme de l’inerte sans altération. Mais ces appareils, même poussés à leurs limites, produisent des images partielles ou d’une qualité insuffisante pour les faire parler. De puissants algorithmes prennent alors le relais pour restaurer des informations lumineuses perdues, améliorer la résolution et les contrastes, ou encore reconstituer des volumes. Ces techniques, qui ont récemment connu des progrès sans précédent, se sont imposées comme des piliers indispensables de la recherche dans d’innombrables domaines. Alors que les principes physiques sous-jacents sont très souvent similaires, les spécialistes des différents domaines ont développé des groupes d’algorithmes aussi puissants que spécifiques, nécessitant un important effort d’adaptation et de traduction de la part des chercheurs dès qu’ils les sortent de leur zone de confort. « Nous avions l’impression de réécrire tout le temps les mêmes portions de code pour adapter ces méthodes », explique Sepand Kashani, doctorant au Laboratoire de communication audiovisuelle (LCAV) de l’EPFL. Il s’est donc attelé, avec Matthieu Simeoni et Joan Rué Queralt, l’ancien et l’actuel responsables du hub de reconstruction d’images au Centre d’imagerie de l’EPFL, à mettre au point un logiciel fédérateur qui permette d’utiliser ces programmes indépendamment du domaine de recherche. Pyxu, aujourd’hui en open source, est né.
De l’image de l’espace à celle de la molécule : des concepts physiques universels
« Les concepts physiques universels liés à l’imagerie se retrouvent souvent à l’identique à travers les domaines, souligne Joan Rué Queralt, responsable du hub de reconstruction d’images du Centre d'imagerie. Les problèmes de reconstruction peuvent donc être regroupés en quelques catégories pour lesquels les modèles mathématiques utilisés sont semblables : rayons X et tomographie, IRM et radioastronomie, ainsi que quelques autres. » Il est ainsi possible de proposer des logiciels agnostiques. « Les méthodes peinent à se faire connaitre d’autres domaines de recherche : nous observons que partout des chercheurs mettent beaucoup d’effort pour élaborer des programmes similaires à ceux qui existent déjà. Cela ralentit les progrès en imagerie dans tous les domaines.»
Pyxu a été conçu pour être utilisé indépendamment du domaine et faciliter l'intégration harmonieuse des technologies d'IA de pointe. « Le paysage de l'imagerie computationnelle a en effet connu un changement radical ces dernières années avec l'avènement de l'apprentissage profond, explique Martin Vetterli, professeur au LCAV. L'utilisation de technologies basées sur l’intelligence artificielle a rapidement conduit à des performances supérieures à celles des algorithmes classiques. » Ces algorithmes sont par exemple entraînés, sur la base d’une comparaison entre des images d’excellente qualité et le résultat de reconstructions, à mettre ensuite automatiquement en œuvre les différentes corrections nécessaires pour obtenir un résultat correct et comparer les données entre elles.
Concevoir Pyxu, initié par le Centre d’imagerie de l’EPFL et le LCAV, ainsi que la plateforme open source a nécessité un intense travail d’unification. «L'une des principales difficultés techniques a résidé dans le fait qu’il doit être à la fois adaptable pour traiter de grands ensembles de données et déployable sans effort sur diverses infrastructures informatiques, dans un large éventail de configurations matérielles», note Sepand Kashani.
Moins de code et des briques à assembler
L’utilisatrice ou l’utilisateur n’a plus besoin de connaitre toutes les subtilités des lignes de code. Les modules représentant les différentes tâches sont choisis et intégrés dans l’ordre souhaité, à la manière d’un jeu de construction. Un des premiers utilisateurs, Nino Hervé, doctorant à l’UNIL l'utilise pour la reconstruction de données issues d’électroencéphalogrammes. « Déduire l'activité de 5000 connexions neuronales à partir de 200 mesures d'électrodes placées sur le cuir chevelu est un défi. Pour le relever efficacement, nous avons besoin d'un cadre capable de traiter des problèmes d'optimisation. Pyxu met en œuvre un grand nombre d'algorithmes d'optimisation de pointe et est optimisé pour le calcul parallèle, ce qui permet d'accélérer la vitesse de calcul et d'alléger ainsi considérablement ma charge de travail». Le logiciel, en open source depuis seulement quelques mois, a d’ores et déjà été utilisé dans le cadre de plusieurs recherches en radioastronomie, optique, tomographie et scanner à l’EPFL. « Nous avons prévu que les chercheurs puissent créer de nouveaux modèles sur la base des nôtres et ensuite les ajouter pour en faire bénéficier toute la communauté scientifique », souligne Matthieu Simeoni, à l’origine du projet.
Une seconde version plus évolutive
La seconde version de Pyxu, plus évolutive, c’est-à-dire adaptable pour des quantités de données plus larges, est en phase d’être mise en open source. L’équipe poursuit ses efforts en vue d'enrichir le logiciel et d’en simplifier encore l’utilisation. Elle collabore aussi étroitement avec le Laboratoire d’imagerie biomédicale de l'EPFL pour tirer parti de travaux récents qui enracinent les algorithmes alimentés par l'IA dans des cadres mathématiques. L'objectif est de s'assurer que les reconstructions obtenues sont non seulement visuellement intéressantes, mais également mathématiquement fiables, ce qui est d'une importance capitale pour des applications sensibles telles que les diagnostics médicaux.