L'intelligence artificielle franchira-t-elle la ligne rouge ?
L’intelligence artificielle influence nos vies modernes. Elle sera l’une des technologies déterminantes de demain. Son utilisation et son influence devraient s’accélérer dans les années 2020. Mais les enjeux sont élevés. Face aux avantages innombrables qu’offre l’intelligence artificielle, le milieu universitaire et le grand public sont également de plus en plus préoccupés par le manque de transparence et son mauvais usage dans de nombreuses sphères de la vie.
C’est dans ce contexte que la Commission européenne est devenue l’une des premières institutions politiques du monde à publier un livre blanc qui pourrait permettre de donner un cadre réglementaire à l’intelligence artificielle. Par ailleurs, cette année le Parlement européen a adopté des propositions sur la manière dont l’Union européenne peut mieux réglementer l’intelligence artificielle pour encourager l’innovation, les normes éthiques et la confiance dans cette technologie.
Récemment, une conférence virtuelle sur la gouvernance de et par la technologie numérique organisée par le Centre international de gouvernance des risques (IRGC) de l’EPFL et le projet Horizon 2020 TRIGGER de l’Union européenne ont exploré les principes nécessaires pour réglementer les technologies numériques actuelles et émergentes, ainsi que le risque potentiel des algorithmes de prise de décision et la manière de les empêcher de nuire.
Stuart Russell, professeur de science informatique à l’Université de Californie (Berkeley) et auteur du célèbre ouvrage « Artificial Intelligence: A Modern Approach », a suggéré que l’intelligence artificielle a un immense potentiel de croissance, mais que nous apercevons déjà les risques de la mauvaise conception des systèmes IA, notamment les effets de la désinformation, de l’usurpation d’identité et de la fraude en ligne.
« Je pense que si nous ne faisons rien rapidement, les êtres humains perdront leurs droits, leurs pouvoirs et leur individualité. Ils deviendront de plus en plus les subordonnés de la technologie numérique, plutôt que ses détenteurs. Par exemple, il existe déjà une intelligence artificielle de 50 représentants d’entreprises différents dissimulés dans votre poche qui volent vos informations et votre argent aussi vite que possible, et il n’y a personne dans votre téléphone qui travaille réellement pour vous. Pourrions-nous réorganiser cela de sorte que le logiciel installé sur votre téléphone travaille réellement pour vous et négocie avec ces entités pour préserver la confidentialité de vos données ? », a-t-il demandé.
Les algorithmes d’apprentissage par renforcement, qui sélectionnent le contenu que les gens voient sur leur téléphone par exemple, sont un problème majeur. « Ils ont actuellement plus de pouvoir que Hitler ou Staline n’en ont jamais eu dans leurs rêves les plus fous sur ce que des milliards de personnes voient et lisent pendant la majeure partie de leur vie éveillée. Nous pourrions affirmer que mener ces types d’expérience sans consentement éclairé est une mauvaise idée. Et comme avec les produits pharmaceutiques, il faut effectuer des tests de stades 1, 2 et 3 sur des êtres humains et observer les effets de ces algorithmes sur l’état d’esprit et le comportement des gens », a-t-il poursuivi.
Au-delà de la réglementation de l’intelligence artificielle ciblée sur l’utilisation individuelle, l’un des débats de la conférence portait sur la manière dont les gouvernements pourraient utiliser l’intelligence artificielle dans le développement et la mise en œuvre de politiques publiques dans des domaines comme les soins de santé, le développement urbain et l’éducation. Bryan Ford, professeur associé à l’EPFL et responsable du Laboratoire des systèmes décentralisés et distribués (DEDIS) à la Faculté informatique et communications, a soutenu que, tandis que l’utilisation prudente de technologies IA puissantes peut avoir de nombreux rôles utiles dans des dispositifs de faible niveau utilisés dans de nombreux domaines d’application, elles n’ont aucun rôle légitime à jouer dans la définition, la mise en œuvre ou l’application des politiques publiques.
« Les questions de politique dans la gouvernance des êtres humains doivent rester un domaine strictement réservé à l’Homme. Par exemple, l’intelligence artificielle peut avoir de nombreuses utilisations justifiables dans les capteurs électriques pour détecter la présence d’une voiture (à quelle vitesse elle roule ou si elle s’est arrêtée à une intersection), mais je dirais que ce n’est pas à l’IA de décider si le conducteur d’une voiture justifie des soupçons et devrait être arrêté par la police routière. »
« Parce que les algorithmes d’apprentissage machine apprennent des ensembles de données qui représentent une expérience historique, la politique axée IA est fondamentalement limitée par l’hypothèse que notre passé est la seule base viable ou la plus adaptée sur laquelle on peut prendre des décisions sur l’avenir. Toutefois, nous savons que les sociétés passées et actuelles sont très imparfaites. Pour avoir tout espoir d’améliorer véritablement nos sociétés, la gouvernance doit donc être visionnaire et tournée vers l’avenir », a poursuivi le professeur Bryan Ford.
L’intelligence artificielle est hétérogène et complexe. Lorsque nous abordons la gouvernance de, et par, l’intelligence artificielle, parlons-nous d’apprentissage machine, de réseaux neuronaux ou d’agents autonomes, ou des différentes applications de tout cela dans divers domaines ? Probablement de tout ce qui précède, et dans de nombreuses applications différentes. Nous ne sommes qu’au début du chemin en matière de réglementation de l’intelligence artificielle, et la plupart des participants conviennent qu’il comportera des implications géopolitiques.
« Ces enjeux peuvent aboutir directement à un ensemble de conflits commerciaux et géostratégiques qui les rendront d’autant plus difficiles à résoudre et d’autant plus cruciaux. La question n’est pas seulement de les esquiver, mais d’éviter la rupture des liens entre les États-Unis et l’Europe, et entre le couple Europe-États-Unis et la Chine. Cela représentera un enjeu majeur sur les plans économique et géostratégique », a suggéré John Zysman, professeur de sciences politiques à l’Université de Californie (Berkeley) et co-directeur de la Berkeley Roundtable on the International Economy (BRIE).
« Finalement, il existe une mince ligne rouge que l’intelligence artificielle ne doit pas franchir. Une réglementation est nécessaire pour établir un équilibre entre les avantages et les risques des applications IA. L’IRGC examine certains des problèmes les plus difficiles auxquels fait face la société aujourd’hui. C’est formidable qu’il fasse partie de l’IC », a déclaré James Larus, doyen de la Faculté IC et directeur académique de l’IRGC.
Concluant la conférence, Marie-Valentine Florin, directrice exécutive de l’IRGC, a rappelé aux participants que l’intelligence artificielle est un moyen destiné à une fin, et pas une fin en soi : « En tant que sociétés, nous avons besoin d’un objectif, comme par exemple le pacte vert sur le développement durable pour donner peut-être un sens à la transformation numérique d’aujourd’hui. La transformation numérique est l’outil. Je ne pense pas que la société ait déjà décidé collectivement d’un véritable objectif pour cela. Et c’est ce que nous devons faire. »