L'IA au service de tous
Moins d’un an après le lancement de la dernière version de ChatGPT, la croissance effrénée de l’utilisation des outils d’IA générative et des modèles d’apprentissage machine fondamentaux ne faiblit pas.
Une enquête mondiale menée par McKinsey et publiée ce mois-ci a révélé qu’un tiers des organisations des personnes interrogées utilise déjà régulièrement l’IA générative dans au moins une fonction de l’entreprise. Plus d’un quart des participantes et participants qui travaillent dans des entreprises utilisant l’IA déclare que l’IA générative est déjà à l’ordre du jour de leur conseil d’administration et 40% rapportent que leur organisation augmentera ses investissements dans l’IA en général en raison des récents développements de cette technologie.
Malgré sa progression rapide, il est difficile de savoir si cette technologie révolutionnaire transformera nos sociétés pour le mieux ou si elle posera des risques importants, ou les deux. On peut affirmer que le passage au monde numérique actuel qui s’est déroulé ces deux dernières décennies a rendu une poignée d’entrepreneurs et d’investisseurs très riches et influents sans vraiment profiter à la majorité.
Aujourd’hui, à l’EPFL, l’événement AMLD (Applied Machine Learning Days) sur l’IA générative, les grands modèles de langage et autres modèles de base a réuni certains des plus grands scientifiques et industriels du monde travaillant dans ce domaine. Les intervenantes et intervenants ont discuté des dernières innovations en matière de recherche ainsi que des risques et des solutions aux niveaux politique et sociétal.
Professeur assistant à l’EPFL et responsable du Laboratoire de traitement du langage naturel de la Faculté informatique et communications, Antoine Bosselut est l’un des principaux organisateurs de l’événement. Il estime qu’il est essentiel que le développement de l’IA générative fasse l’objet d’un plus grand nombre de contrôles et d’équilibres que les technologies précédentes.
«L’immense pouvoir de l’IA générative et d’autres modèles de base signifie que nous devons réinventer notre engagement dans le monde qui nous entoure à bien des égards. Cette technologie a un grand potentiel pour la société dans des domaines allant du développement de nouveaux médicaments au tutorat interactif, mais elle comporte également des risques qui doivent être pris en compte dès le départ. Elle est loin d’être parfaite et nous devons veiller à ce que le déploiement de l’IA générative soit transparent et démocratique», explique-t-il.
Un risque à venir est la possibilité que l’IA générative mette des millions de personnes au chômage. L’un des intervenants de la matinée, Daniel Rock, professeur assistant à l’Université de Pennsylvanie, étudie les effets économiques des technologies numériques, en particulier l’économie de l’intelligence artificielle.
Lors de la conférence, il a déclaré que s’il est difficile de savoir exactement comment les grands modèles de langage tels que ChatGPT vont changer l’avenir du travail, il existe déjà des moyens d’en mesurer le potentiel. «Nos recherche ont trouvé que deux types de métiers sont le plus exposés au changement. Le premier peut sembler evident – les experts en données quantitatives tels que mathématiciens, développeurs logiciel, et autres métiers de la bureautique à bas niveau. De façon assez intéressante, une nouvelle caractéristique de l’IA générative est que les positions les mieux payées sont les plus à risque. Ainsi, l’expertise telle qu’on la connait va probablement changer. Les emplois avec la plus grande sélection à l’entrée, ceux avec les formations les plus longues et dont la pratique est la plus reconnue, tel que les docteurs, les avocats et les pharmaciens, sont bien plus exposés. Je pense que c’est cela qui genère beaucoup d’anxieté, car les secteurs qui ont investi le plus dans leur capital humain sont ceux qui verront le plus de risques.»
Un autre intervenant de la matinée, Dragoș Tudorache, est membre du Parlement européen et vice-président du groupe Renew Europe.
L’utilisation de l’intelligence artificielle dans l’UE sera réglementée par la loi sur l’IA, la première loi globale sur l’IA au monde, afin de garantir que son développement et son utilisation soient bénéfiques, notamment dans les domaines de la santé, des transports, de la fabrication et de l’énergie durable. Les nouvelles règles établissent des obligations pour les fournisseurs et les utilisatrices et utilisateurs en fonction du niveau de risque de l’intelligence artificielle: inacceptable, élevé et limité.
«Lors de l’été 2022, nous avions déjà décidé qu’il nous fallait quelque chose dans la législation des modèles de foundation, étant donné qu’ils sont clairement en train de changer le fonctionnement de nos sociétés. Premièrement, ces modèle sont un défi vis-à-vis du monopole que nous, les humains, avons eu sur la création et c’est un changement psychologique fondamental. Le deuxième est la rapport à la vérité et à la confiance, car ces modèles changent notre manière d’apprendre. Il y a toujours eu des menteurs et des mensonges, mais en terme d’échelle et d’intensité ces modèles en permettent bien plus. Si l’on ajoute à cela la géopolitique, les leaders envisagent les alternatives à l’armement nucléaire et se questionnent sur la nécessité d’une régulation basée sur la connaissance commune des règles et des risques», déclare Dragos Tudorache lors de la conférence.
Malgré les risques potentiels de l’IA générative, celle-ci est déjà en train de révolutionner de manière positive certains secteurs comme les soins de santé. Les modèles prédictifs cliniques, qui peuvent aider les médecins et les administrateurs à prendre des décisions, en sont un exemple.
Kyunghyun Cho, professeur associé d’informatique et de science des données à l’Université de New York, a pris la parole cet après-midi. Il vient de mener une étude qui s’appuie sur les dernières avancées en matière de traitement du langage naturel pour former un grand modèle de langage médical (NYUTron) et l’affiner par la suite dans le cadre d’un vaste ensemble de tâches prédictives cliniques et opérationnelles.
«Les modèles prédictifs cliniques actuels, basés sur des données structurées, ont une utilisation limitée dans la pratique quotidienne en raison de la complexité du traitement des données, de leur développement et du déploiement. Notre étude a utilisé des notes cliniques non structurées provenant du dossier médical électronique pour permettre l’entraînement de modèles de langage clinique et a montré une amélioration par rapport aux modèles classiques, démontrant le potentiel de cette approche.»
«L’intelligence artificielle sera omniprésente dans notre quotidien au cours des prochaines décennies. Nous devons donc veiller à ce que l’IA générative et les modèles de base soient développés de manière à minimiser les risques potentiels», indique la professeure à l’EPFL Maria Brbic, autre organisatrice de la conférence et responsable du Laboratoire d’apprentissage machine pour la découverte biomédicale.
«Nous ne sommes qu’au commencement de cette aventure. Nous ne connaissons pas toutes les capacités, ni les modes de défaillance et les biais que ces technologies pourraient avoir. Nous devons nous assurer de manière proactive que les technologies d’intelligence artificielle générative ne nuisent pas à la société. Pour y parvenir, tout le monde doit participer aux débats sur cette question. Des événements comme celui-ci sont un début», conclut-elle.
L’EPFL continue à travailler sur ce thème avec plus d’une dizaine de scientifiques qui contribuent à la recherche pour s’assurer de l’impact positif de l’IA générative sur la société. L’événement AMLD, fondé par le professeur Marcel Salathe, responsable du Laboratoire d’épidémiologie digitale, s’intéresse également à ces questions. Notez dans vos agendas la prochaine édition complète de l’événement Applied Machine Learning Days 2024, qui se déroulera du 23 au 26 mars au Swiss Tech Convention Center de l’EPFL.