nos pensées seront-elles bientôt à vendre avec l’essor des neurotechnologies ?

Les interfaces entre cerveaux humains et ordinateurs se développent, poussées par les progrès technologiques, les avancées de l’intelligence artificielle et les promesses d’utilisations médicales. Au point de faire craindre une future commercialisation de nos pensées les plus intimes.

De quoi parle-t-on ?

Les neurotechnologies sont des dispositifs qui font l’interface entre le cerveau et des machines. Ils sont au départ élaborés à des fins médicales.

L’utilisation des neurotechnologies dans le secteur médical est aujourd’hui en voie d’être encadrée, par exemple en France, en ce qui concerne l’imagerie cérébrale, en Europe et, plus largement, dans le monde, par une éthique médicale commune.

Si cet encadrement reste à approfondir, en particulier en raison de ses liens avec l’intelligence artificielle (IA), il faut souligner que les utilisateurs et leurs « données cérébrales » ne sont plus juridiquement et éthiquement protégés dans le cadre d’utilisations non médicales.

Pourtant, des neurotechnologies sont déjà commercialisées auprès du grand public en bonne santé, par exemple dans l’éducation et le bien-être, ou développées dans le cadre de projets de jeux vidéo (pour l’instant non commercialisé) et dans le domaine du travail.

Vidéos : en ce moment sur Actu

De plus, ces dispositifs sont d’ores et déjà conçus pour apprendre à décrypter nos pensées — ce qui reste aujourd’hui un objectif à long terme. Ceci laisse craindre que la commercialisation de données cérébrales permette d’influencer, de manipuler ou d’assujettir les humains.

Des technologies invasives ou non

Le fonctionnement « électrique » du cerveau est enregistrable et modulable (en laboratoire) par des neurotechnologies.

Certains dispositifs neurotechnologiques sont implantés directement dans le cerveau. On parle de technologies « invasives » ou d’implants cérébraux. C’est le cas par exemple des dispositifs à des fins médicales des entreprises Synchron et Precision Neurosciences.

Il existe également des neurotechnologies dites non invasives, comme des écouteurs, des lunettes ou des bandeaux. Meta, par exemple, développe un dispositif qui ne requiert pas de chirurgie mais qui reste aujourd’hui trop massif pour être déployé.

Ces neurotechnologies non invasives permettent d’enregistrer des électroencéphalogrammes (EEG) — ou, dans le cas de Meta, des magnétoencéphalogrammes — ce qui permet de capter certaines ondes cérébrales qui sont ensuite numérisées, afin d’être traitées par des systèmes d’IA.

Un retour de la machine vers le cerveau de la personne, dit « neurofeedback », est possible après traitement des informations par ces systèmes d’IA.

Vendre des pensées ? Une idée pas si simple à réaliser

L’étude du cerveau, dans son sens le plus large, génère des volumes considérables de données, communément appelées « données cérébrales ».

Elles peuvent être moléculaires, cellulaires, génétiques, anatomiques, fonctionnelles, comportementales, computationnelles ou encore venant de l’activité neuro-électrique du cerveau (appelé aussi « rythme cérébral »).

Cette diversité de données regroupées sous le nom de « données cérébrales » n’est pas mesurable et visualisable avec les mêmes techniques, ce qui donne une diversité d’approches, de théories et de conceptions scientifiques de la pensée, qui s’entrechoquent également avec des conceptions plus philosophiques ou théologiques de la pensée, qui, elles, ne se mesurent pas.

Le concept de « vie privée mentale » n’est donc pas facile à définir, tant neuroscientifiquement que philosophiquement. La pensée humaine est et restera toujours bien plus complexe et floue que de simples réseaux de neurones visualisables, mesurables, calculables et transférables via les neurotechnologies et des systèmes d’IA.

Sommes-nous ce que nous pensons ?

Admettre que la pensée humaine serait assimilable au fonctionnement d’un ordinateur et donc potentiellement vendable, comme le proposent les « visionnaires transhumanistes », se poser la question de la possibilité qu’un jour nous puissions les télécharger sur un support numérique et vivre éternellement, c’est supposer — et imposer à tous — que ces données cérébrales, qui sont collectées grâce aux neurotechnologies, traitées par les systèmes d’intelligences artificielles et qui sont stockées dans des centres de données soient véritablement et intégralement nos pensées.

Cela appelle à se poser la question de ce que signifient réellement ces données cérébrales. Sont-elles suffisantes pour caractériser un être humain ?

Si toutes nos pensées, nos souvenirs, notre imagination, nos émotions, notre comportement et notre subconscient se passent dans le cerveau, si tout ce que nous pensons, sentons ou désirons ne résulte que de l’activité cérébrale de milliards de neurones, au sein de différentes aires cérébrales, qu’est-ce qui fait notre subjectivité, notre unicité, notre singularité ?

Une menace « pour l’intimité psychique et la liberté de penser »

Ne serions-nous pas, ici, devant une conception matérialiste de la pensée, l’assimilant à un calcul et la considérant comme mécanisable, et donc vendable, qui reposerait sur un « réductionnisme neurobiologique » ?

C’est en tout cas à partir de ces approches neurobiologiques, devenues paradigme scientifique (à savoir « nos pensées peuvent être décrites et reproduites par l’observation de signaux neuronaux »), que les sciences cognitives, la cybernétique, l’IA et les neurosciences évoluent depuis 1943. C’est aussi selon ce paradigme qu’évolue la neuroéthique.

Aujourd’hui, c’est à cette frontière de la conscience et des pensées que se cache une porte vers notre intimité et notre liberté, vers notre humanité la plus profonde, que ces technologies nous proposent d’ouvrir.

Le cerveau en est le refuge, c’est la partie privée de nous-mêmes, le point ultime de notre vie privée. Il nous faut donc nous assurer que ces connaissances sur la conscience et sur le cerveau, que ces neurotechnologies et l’IA, soient utilisées pour le bien commun, sans compromettre notre intégrité psychique, notre intimité, notre sécurité et notre liberté de pensée.

Malgré les interrogations et le flou sur ce qu’est la pensée, c’est l’ombre d’une menace « pour l’intimité psychique et la liberté de penser, mettant ainsi en danger la démocratie et la liberté politique » qui est pressentie, pour reprendre les termes de l’Unesco.

Les enjeux éthiques, juridiques et sociétaux qui se dessinent à travers cette problématique sont vertigineux.

À l’heure actuelle, parce que l’on ne connaît pas bien la signification précise des données cérébrales collectées, celles-ci ne sont pas encore légalement considérées comme des données biométriques et/ou des données sensibles.

Vers un cadre de gouvernance mondiale

De nombreux défis, problèmes et préoccupations entourent le développement d’un cadre de gouvernance des données cérébrales. Outre leur diversité technique, elles sont générées dans différentes juridictions : elles sont donc soumises à des principes éthiques et juridiques distincts et suscitent des préoccupations éthiques et juridiques variées.

Néanmoins, vu la vitesse de déploiement de ces neurotechnologies et le caractère international des marchés, il est nécessaire de s’accorder sur plusieurs niveaux géographiques (pays, Europe et international) et dans un laps de temps restreint.

Si un consensus n’est pas encore réellement trouvé par les chercheurs engagés dans ces réflexions, ceux-ci préconisent d’ores et déjà un examen contextuel de la gouvernance des données cérébrales prenant en compte les spécificités des cultures, des pays…

Un travail international sur les enjeux éthiques des neurotechnologies a été initié par l’Unesco en mai 2024. Il s’achèvera en novembre 2025 par la proposition d’un cadre éthique mondial pour les neurotechnologies.

Cette future recommandation doit s’inscrire dans la continuité des travaux menés en 2021 et en 2023 sur les implications éthiques des neurotechnologies.

Ces travaux ont souligné la nécessité d’une recommandation éthique et d’un cadre de gouvernance mondiale solide, flexible et évolutif, permettant d’assurer la protection des droits humains et des libertés fondamentales.

Le rapport de 2021 identifiait les menaces que les neurotechnologies faisaient peser sur les droits et les libertés fondamentales, comme l’intégrité personnelle et psychique.

Tandis que le rapport de 2023 a montré que le rythme de l’innovation dans ce domaine des neurotechnologies s’était accéléré avec l’utilisation et la convergence avec l’IA et l’IA générative.

Ce travail de l’Unesco est complété par celui de l’OCDE. En parallèle des travaux de ces instances internationales, de récentes études de chercheurs mettent en lumière plusieurs considérations essentielles qui nécessitent un examen approfondi pour faire progresser les réflexions, dont une évaluation des risques, nécessaire et indispensable, car les données collectées au moyen des neurotechnologies peuvent être des données qui, d’une manière ou d’une autre, seraient liées à la conscience, aux pensées et aux souvenirs.

Laure Tabouy, Chercheuse – chargée d’enseignement et cheffe de projet en éthique / neuroéthique. Domaine de recherche en éthique des neurosciences, des neurotechnologies, du numérique et de l’IA, Aix-Marseille Université (AMU)
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Suivez toute l’actualité de vos villes et médias favoris en vous inscrivant à Mon Actu.

Crédit: Lien source

Laisser un commentaire

Votre adresse email ne sera pas publiée.