Nous devons étendre les droits de l'Homme aux neurotechnologies
L'idée d'établir une connexion directe entre le cerveau humain et un ordinateur afin d'enregistrer et d'influencer l'activité cérébrale n'est plus une utopie. Les scientifiques travaillent depuis des années à la mise au point de telles interfaces cerveau-ordinateur. Les récentes annonces pompeuses de Neuralink, la société d'Elon Musk, ont probablement reçu la plus grande attention médiatique. Mais d'innombrables autres projets de recherche dans le monde entier développent des solutions technologiques pour mieux comprendre la structure et le fonctionnement du cerveau humain et pour influencer les processus cérébraux afin de traiter les troubles neurologiques et mentaux, comme la maladie de Parkinson, la schizophrénie et la dépression. L'objectif final est de percer l'énigme du cerveau humain, qui constitue l'un des plus grands défis scientifiques de notre époque.
Le potentiel diagnostique, d'assistance et thérapeutique des interfaces cerveau-ordinateur et des techniques de neurostimulation et les espoirs placés en elles par les personnes dans le besoin sont énormes. Comme près d'un quart de la population mondiale souffre de troubles neurologiques ou psychiatriques, ces neurotechnologies sont prometteuses pour soulager la souffrance humaine. Cependant, le potentiel d'utilisation abusive de ces neurotechnologies est tout aussi important, ce qui soulève des problèmes qualitativement différents et des questions éthiques sans précédent1,2. Par conséquent, le défi correspondant pour la science et la politique est de veiller à ce que cette innovation si nécessaire ne soit pas utilisée à mauvais escient, mais qu'elle soit alignée de manière responsable sur les valeurs éthiques et sociétales, de façon à promouvoir le bien-être humain.
Accéder à l'activité cérébrale d'une personne
Est-il légitime, ou dans quelles conditions, d'accéder à l'activité cérébrale d'une personne ou d'interférer avec elle? Lorsque nous, éthicien·nes, traitons de nouvelles technologies comme celles-ci, nous nous trouvons sur une délicate corde raide entre, d'une part, l'accélération de l'innovation technologique et de l'application clinique au profit des patient·es et, d'autre part, la garantie de la sécurité par la prévention des effets indésirables involontaires. Ce n'est pas facile. Lorsqu'il s'agit de nouvelles technologies, nous sommes toujours confronté·es à un dilemme fondamental: il est impossible de prévoir les conséquences sociales d'une nouvelle technologie tant qu'elle n'en est qu'à ses débuts; cependant, lorsque des conséquences indésirables sont découvertes, la technologie est souvent tellement ancrée dans la société qu'il est extrêmement difficile de la contrôler.
Ce dilemme peut être illustré par les médias sociaux. Lorsque les premières plateformes de médias sociaux ont été créées, au début des années 2000, leurs implications éthiques et sociétales à moyen et long terme étaient inconnues. Plus de quinze ans plus tard, nous disposons désormais de nombreuses informations sur les conséquences indésirables que ces plateformes peuvent entraîner: propagation de fake news, émergence de bulles de filtres, polarisation politique et risque de manipulation en ligne3. Cependant, ces technologies sont désormais tellement ancrées dans nos sociétés qu'elles échappent à toute tentative de les réorienter, de les modifier, de les réguler et de les contrôler.
Aujourd'hui, nous sommes confrontés à ce même dilemme avec plusieurs technologies émergentes, notamment les interfaces cerveau-ordinateur et autres neurotechnologies. En fait, ces technologies ne sont plus confinées au domaine médical (où elles doivent se conformer à des réglementations et à des directives éthiques strictes) mais ont déjà essaimé dans un certain nombre d'autres domaines tels que le marché de la consommation, l'industrie des communications et des transports, et même les forces de l'ordre et le secteur militaire. En dehors des laboratoires et des cliniques, ces technologies se trouvent souvent dans une zone de non-droit réglementaire.
Lorsqu'il s'agit de neurotechnologie, nous ne pouvons pas nous permettre ce risque. En effet, le cerveau n'est pas seulement une autre source d'information qui irrigue l'infosphère numérique, mais l'organe qui construit et permet notre esprit. Toutes nos capacités cognitives, notre perception, nos souvenirs, notre imagination, nos émotions, nos décisions, nos comportements sont le résultat de l'activité de neurones connectés dans des circuits cérébraux.
Impact sur l'identité personnelle
C'est pourquoi la neurotechnologie, avec sa capacité à lire et à écrire l'activité cérébrale, promet, du moins en principe, de pouvoir un jour décoder et modifier le contenu de notre esprit. Qui plus est, l'activité cérébrale et la vie mentale qu'elle génère constituent le substrat critique de la responsabilité morale et juridique de l'identité personnelle. Par conséquent, la lecture et la manipulation de l'activité neuronale par des techniques neurotechnologiques médiées par l'intelligence artificielle (IA) pourraient avoir des répercussions sans précédent sur l'identité personnelle des personnes et introduire un élément d'obscurcissement dans l'attribution de la responsabilité morale, voire juridique.
Pour éviter ces risques, une gouvernance anticipative est nécessaire. Nous ne pouvons pas nous contenter de réagir aux neurotechnologies une fois que les utilisations abusives potentiellement dangereuses de ces technologies ont atteint le domaine public. Au contraire, nous avons l'obligation morale d'être proactif·ves et d'aligner le développement de ces technologies sur des principes éthiques et des objectifs sociétaux convenus démocratiquement.
De la neuroéthique aux neurorights
Pour faire face à la diversité et à la complexité des neurotechnologies et des implications éthiques, juridiques et sociales qu'elles soulèvent, un cadre global est nécessaire. Avec d'autres chercheur·ses, comme le neuroscientifique Rafael Yuste, j'ai soutenu que l'éthique est primordiale, mais que la base de ce cadre de gouvernance des neurotechnologies devrait se situer au niveau des droits fondamentaux de l'Homme. Après tout, les processus mentaux sont la quintessence de ce qui fait de nous des êtres humains.
Il faudra peut-être élargir la portée et la définition des droits de l'Homme existants pour protéger adéquatement le cerveau et l'esprit humains. Le juriste Roberto Adorno, de l'Université de Zurich, et moi-même avons baptisé ces nouveaux droits de l'Homme «neurorights».4, 5 Nous avons proposé quatre neurorights:
- Le droit à la liberté cognitive protège le droit des individu·es à prendre des décisions libres et compétentes concernant leur utilisation des neurotechnologies. Il garantit aux individu·es la liberté de surveiller et de moduler leur cerveau ou de s'en passer. En d'autres termes, il s'agit d'un droit à l'autodétermination mentale.
- Le droit à la vie privée mentale protège les individu·es contre l'intrusion non consentie de tiers dans les données de leur cerveau ainsi que contre la collecte non autorisée de ces données. Ce droit permet aux personnes de déterminer elles-mêmes quand, comment et dans quelle mesure des tiers peuvent avoir accès à leurs informations neuronales. Le droit à l'intégrité mentale revêt une importance particulière dans la mesure où les données cérébrales deviennent de plus en plus accessibles grâce aux applications de neurotechnologie grand public, et sont donc exposées aux mêmes risques de confidentialité et de sécurité que toute autre donnée.
- Le droit à l'intégrité mentale, déjà reconnu par le droit international tel que la Charte européenne des droits fondamentaux, peut être élargi pour garantir également le droit des personnes souffrant de handicaps physiques et/ou mentaux d'accéder à des neurotechnologies sûres et efficaces et de les utiliser, ainsi que de les protéger contre des applications non autorisées et nuisibles.
- Enfin, le droit à la continuité psychologique vise à préserver l'identité personnelle des personnes et la continuité de leur vie mentale contre toute altération non consentie par des tiers.
Les neurorights sont déjà une réalité dans la politique internationale
Les neurodroits ne sont pas seulement une idée académique abstraite, mais un principe qui a déjà atterri dans la politique nationale et internationale. Le parlement chilien a défini, dans un projet de réforme constitutionnelle, «l'intégrité mentale» comme un droit humain fondamental, et a adopté une loi qui protège les données du cerveau et applique l'éthique médicale existante à l'utilisation des neurotechnologies. Par ailleurs, le secrétaire d'État espagnol à l'IA a récemment publié une charte des droits numériques qui intègre les neurorights dans les droits des citoyens pour la nouvelle ère numérique, tandis que l'autorité italienne de protection des données a consacré la Journée de la vie privée 2021 au thème des neurorights. La nouvelle loi française sur la bioéthique entérine le droit à l'intégrité mentale car elle permet d'interdire les modifications nuisibles de l'activité cérébrale. La liberté cognitive et l'intimité mentale sont également mentionnées dans la recommandation de l'OCDE sur l'innovation responsable en neurotechnologie6. Enfin, le Conseil de l'Europe a lancé un plan d'action stratégique quinquennal axé sur les droits de l'homme et les nouvelles technologies biomédicales, y compris les neurotechnologies. L'objectif de ce programme est d'évaluer si les questions éthico-juridiques soulevées par la neurotechnologie sont suffisamment prises en compte par le cadre existant des droits de l'Homme ou si de nouveaux instruments doivent être développés.
Afin d'exploiter le grand potentiel des neurotechnologies, mais d'éviter les abus, il est important d'aborder les questions éthiques et juridiques et de réglementer les neurotechnologies dans l'intérêt de tous.