«Une IA fiable exige une collaboration interdisciplinaire»
Andreas Krause, vous êtes l'un des principaux chercheurs européens en apprentissage automatique et en intelligence artificielle (IA). Y a-t-il des tâches que vous faisiez vous-même il y a dix ans et que vous déléguez désormais à des programmes informatiques intelligents?
Dans les coulisses, il existe en fait plusieurs technologies d'IA et d'apprentissage automatique très utiles qui facilitent mon travail au quotidien. La recherche dans la littérature universitaire est grandement facilitée par les moteurs de recommandation, et la reconnaissance vocale et la traduction des langues peuvent, dans une large mesure, être automatisées aujourd'hui. Ce n'était pas encore possible il y a dix ans.
L'intelligence artificielle peut-elle comprendre des problèmes que les humain·es n'ont pas encore compris?
Il est difficile de définir ce que signifie exactement «comprendre». Les machines sont capables d'extraire efficacement des modèles statistiques complexes de grands ensembles de données et de les utiliser de manière computationnelle. Cela ne signifie en aucun cas qu'elles les «comprennent». Néanmoins, les algorithmes d'apprentissage automatique existants restent très utiles pour des tâches spécialisées. La capacité de généraliser les connaissances à travers les domaines et d'appréhender et de résoudre rapidement des types très différents de problèmes complexes reste toutefois une capacité propre à l'humain·e. Nous sommes très loin d'y parvenir en intelligence artificielle.
Quel est votre point de vue sur la recherche en IA à l'ETH Zurich?
Nous menons d'excellentes recherches sur l'IA ici à l'ETH Zurich, à la fois dans le département d'informatique et dans de nombreuses autres disciplines. En particulier dans les sous-domaines de la science des données comme l'apprentissage automatique, la vision par ordinateur et le traitement du langage naturel, mais aussi dans des domaines d'application comme la santé, la robotique, etc. Bon nombre des questions les plus passionnantes se posent à l'interface entre différentes disciplines, et je vois donc des possibilités de collaboration systématique. C'est pourquoi nous avons créé l'ETH AI Center en tant qu'effort interdisciplinaire et rejoint ELLIS, le laboratoire européen pour l'apprentissage et les systèmes intelligents. Cette mise en réseau est essentielle. À l'avenir, nous ne pourrons influencer l'IA et la façonner selon les valeurs européennes que si nous assumons un rôle de leader technologique.
Que signifient les «valeurs européennes» en rapport avec l'IA?
Que nous réfléchissons à l'impact du développement technologique sur notre économie et notre société ouverte. Par exemple, la protection de la vie privée est une valeur importante en Europe. Cela soulève de nouvelles questions sur la manière de développer la technologie de l'IA. La fiabilité, l'équité et la transparence jouent également un rôle clé dans ce domaine et sont liées à des questions très pertinentes sur l'acceptation, l'inclusion et la confiance de la société dans l'IA.
Quels sont les défis actuels en matière d'IA digne de confiance?
L'IA et l'apprentissage automatique devraient être aussi fiables et faciles à gérer que les systèmes logiciels classiques, et permettre des applications complexes sur lesquelles nous pouvons compter. À mon avis, un grand défi réside dans le fait que l'on ne peut évaluer la fiabilité de l'IA que dans le contexte d'applications spécifiques. Les problèmes particuliers qui se posent en médecine, par exemple, ne peuvent pas être directement transposés aux problèmes du secteur juridique ou des assurances. Nous devons donc connaître les exigences spécifiques d'une application pour pouvoir développer des systèmes d'IA fiables et dignes de confiance.
Qu'est-ce qui rend un algorithme d'apprentissage automatique fiable ?
La fiabilité est une question centrale lorsqu'il s'agit d'accepter les nouvelles technologies d'IA. Là encore, les exigences concrètes en matière de fiabilité dépendent fortement de chaque application. Lorsqu'un moteur de recommandation suggère un film que quelqu'un n'aime pas, les conséquences ne sont pas aussi importantes que lorsqu'un système d'IA pour l'aide à la décision médicale ou un véhicule autonome commet une erreur. Ces types d'applications requièrent des méthodes offrant des niveaux de fiabilité et de sécurité bien plus élevés.
Et quand des erreurs se glissent quand même ?
En analysant systématiquement les types d'erreurs commises, nous pouvons les réduire et les empêcher au mieux de se produire. Il est particulièrement important que les algorithmes d'apprentissage ne présentent pas de comportement inattendu.
Qu'est-ce qui est considéré comme un comportement inattendu?
Pour les voitures à conduite autonome, par exemple, il existe des systèmes de reconnaissance d'images qui reconnaissent les panneaux de signalisation. Il suffit parfois que quelqu'un appose un autocollant sur un panneau pour que la reconnaissance automatique cesse de fonctionner. Comme les humain·es ne seraient pas déconcertés par un autocollant sur un panneau, ce comportement est très inattendu pour nous. Nous devons donc trouver de nouvelles méthodes pour éviter ces problèmes de manière fiable et développer des algorithmes d'apprentissage robustes. Ces sujets de recherche sont actuellement très actifs.
On lit parfois que l'apprentissage automatique doit être explicable, de sorte qu'il soit possible de retracer plus tard comment et pourquoi un algorithme a abouti à un certain résultat.
C'est tout à fait exact. Il est également difficile de définir ce que signifie «explicable». Cette notion ne peut être rendue plus concrète qu'en considérant une application spécifique. De mon point de vue, il n'est pas obligatoire de comprendre précisément comment un système d'apprentissage automatique a pris sa décision. Lorsque nous réfléchissons à la manière dont les gens prennent des décisions, nous ne savons pas non plus exactement quels sont les facteurs neurobiologiques à l'origine de leur processus décisionnel. Mais les gens sont capables d'expliquer leurs décisions de manière transparente. Nous devons trouver des moyens d'imiter cette capacité dans les algorithmes d'apprentissage automatique. Prenons l'exemple des panneaux routiers. Vous pourriez, par exemple, essayer de savoir si un modèle d'apprentissage automatique s'est concentré sur des caractéristiques de fond ou des caractéristiques marginales au lieu de prendre en compte les propriétés pertinentes d'un panneau routier.
Lorsqu'une erreur est découverte, l'algorithme d'apprentissage est-il adapté ?
Oui, mais dans chaque cas, nous devons d'abord comprendre quel est le problème afin d'adapter l'algorithme pour éviter que l'erreur ne se reproduise.
Ces discussions sur l'intelligence artificielle me rappellent une phrase de L'Apprenti sorcier de Goethe: «Les esprits que j'ai invoqués, je ne peux pas m'en débarrasser.»
L'intelligence artificielle est à la fois source de rêves et de cauchemars. Cela est également dû à l'influence de la science-fiction, des films hollywoodiens et des romans. En tant que chercheur, je suis davantage préoccupé par l'utilisation aveugle ou abusive des technologies actuelles, et par les conséquences possibles qui pourraient découler d'un manque de fiabilité ou d'une discrimination. Il est toutefois important que nous ne soyons pas guidés par la peur. Nous devons relever ces défis de front. C'est la seule façon de façonner activement cette technologie et de l'utiliser au profit de la société.
Quel rôle les questions éthiques jouent-elles ici?
Pour les algorithmes d'apprentissage ayant des conséquences potentielles pour les humain·es, des normes éthiques élevées sont obligatoires pour garantir des résultats équitables et non discriminatoires. Cela nécessitera une collaboration entre différentes disciplines. La réponse à une question éthique ne peut être de nature purement technique. Un·e informaticien·ne ne peut pas décider seul·e comment développer, de manière généralisée, un système d'apprentissage automatique qui aboutit à des décisions équitables.
Quels conseils donneriez-vous aux étudiant·es qui souhaitent travailler avec l'intelligence artificielle dans le secteur privé ?
Les bases, notamment en mathématiques et en informatique, sont extrêmement importantes. En même temps, il faut être ouvert·e aux nouvelles questions et s'impliquer dans des projets concrets avec des collègues travaillant sur différents types d'applications. Enfin, vous devez être capable de garder votre sang-froid dans un domaine qui évolue à un rythme aussi rapide. Plutôt que de courir après la dernière tendance en matière d'IA, il est préférable de prendre le temps de réfléchir à l'avenir et d'acquérir une perspective plus large.