La tech peut-elle être sage et éthique ? Du projet Neuralink d’Elon Musk à l’application spirituelle Digital Deepak, le futur prévu par les auteurs de science-fiction frappe à notre porte. Le transhumanisme peut-il être une voie envisageable pour l’humanité ? L’intelligence artificielle va-t-elle s’opposer à la conscience spirituelle ?
Le 21 avril 2021, pour la première fois au monde, la Commission européenne a publié un projet de réglementation de l’intelligence artificielle. Pour Margrethe Vestager, vice-présidente exécutive pour une Europe adaptée à l’ère du numérique, l’enjeu de ce projet est « d’ouvrir la voie à une technologie éthique dans le monde entier, tout en préservant la compétitivité de l’Union européenne ». Si l’initiative est bonne, elle relève malheureusement davantage d’une stratégie industrielle face à ses principaux concurrents – la Chine et les États-Unis, opposés à toute régulation – que d’une réelle volonté de soumettre le développement fulgurant de la technologie à des limites philosophiques et spirituelles.
Pourtant, à la faveur de la croissance exponentielle de ses performances, l’IA investit peu à peu les domaines infiniment sensibles des émotions et de la conscience humaine. La question ne semble plus être de savoir si l’intelligence artificielle fera preuve, un jour, d’humanité, mais si les êtres humains, dans leur quête de puissance, ne finiront pas eux-mêmes par y perdre leur âme… À l’aube d’une révolution technologique sans précédent, comment garantir que la tech reste éthique ?
Le futur, c’est maintenant
Nous y sommes. Les scénarios imaginés par les auteurs de science-fiction du XXe siècle ne relèvent plus de l’imaginaire. Nous ne vivons plus un progrès linéaire améliorant nos conditions de vie quotidienne, mais une explosion de l’innovation technologique qui remet en cause la nature même de notre humanité. L’arrivée de l’intelligence artificielle dans tous les domaines de l’activité humaine pose de nombreuses questions d’ordre économique, politique, sécuritaire, social… Les logiciels de recrutement nous confrontent à des problèmes de discrimination dans le domaine des ressources humaines ; les algorithmes de surveillance interrogent nos libertés fondamentales et notre droit à l’anonymat ; les voitures autonomes soulèvent des débats quant à l’attribution de la responsabilité en cas d’accident…
Mais que penser de la technologie quand elle investit le champ de la conscience humaine ? En janvier, le célèbre gourou Deepak Chopra lançait son application de « double numérique » – Digital Deepak – pour diffuser ses enseignements spirituels en version interactive au plus grand nombre. En février, Microsoft déposait le brevet d’une technologie permettant de créer l’avatar numérique d’une personne décédée, afin de permettre à ses proches de discuter avec elle. En avril, nous apprenions que Neuralink, la société d’Elon Musk, avait implanté une puce cérébrale à un singe qui lui permettait de jouer à un jeu vidéo par la pensée et que des essais sur les êtres humains devraient avoir lieu d’ici 2022. Ces annonces s’inscrivent dans le cadre des recherches du mouvement transhumaniste, qui défend l’idée selon laquelle l’humanité doit être augmentée par la technologie afin de devenir, un jour, toute-puissante et immortelle. Ray Kurzweil, directeur de l’ingénierie chez Google, fervent partisan de ce mouvement, prédit pour sa part que l’intelligence artificielle dépassera celle des êtres humains en 2029 et que nous pourrons, consécutivement, transférer notre conscience dans des machines pour accéder à l’éternité numérique, dans le cloud, un nuage non plus céleste, mais informatique… L’ampleur et la rapidité des progrès technologiques sont, aujourd’hui, sans précédent, mais cette « siliconisation de l’esprit » est-elle pour autant inéluctable ?
L’Europe contre le reste du monde
Face à ces perspectives vertigineuses, contrairement à la Chine ou aux États-Unis qui ne régulent pas les innovations de leurs entreprises dans un souci de compétitivité, l’Union européenne a décidé de publier un projet de réglementation de l’intelligence artificielle. Ce projet, qui vise « à faire de l’Europe le pôle mondial d’une intelligence artificielle (IA) digne de confiance », décline quatre catégories de risques pour déterminer si le développement de tel ou tel projet sera légal ou pas : les risques minimes, limités, élevés et inacceptables. Serons-nous alors préservés des risques de dérives dans le domaine ? Pour Anne-Blandine Caire, professeure de droit privé et de sciences criminelles, spécialisée dans les questions de bioéthique : « C’est une bonne chose qu’il y ait un projet, ça prouve qu’on commence à réfléchir sérieusement à ces sujets-là, mais il ne s’agit pas ici de défendre les droits de l’homme, le but est économique. Le projet dépend de l’Union européenne et non du Conseil de l’Europe. Le but est de développer le marché européen de l’IA pour rattraper notre retard sur les GAFAM. Ce n’est pas une réglementation éthique, le but est de poser les bases de la réglementation dans ce domaine, en préservant l’économie. » (...)
L'accès à l'intégralité de l'article est réservé aux abonnés « Inexploré digital »
Grégory Aimar est journaliste, réalisateur, auteur de livres, d'articles, de scénarios et de documentaires. Ses thèmes de prédilection : la science, la technologie, l'écologie et la spiritualité. Il a publié son premier roman en 2020, aux Editions Massot : I.AM Le transhumanisme, une nouvelle religion ? ...
L’INREES utilise des cookies nécessaires au bon fonctionnement
technique du site internet. Ces cookies sont indispensables pour
permettre la connexion à votre compte, optimiser votre navigation et
sécuriser les processus de commande. L’INREES n’utilise pas de
cookies paramétrables. En cliquant sur ‘accepter’ vous acceptez ces
cookies strictement nécessaires à une expérience de navigation sur
notre site.
[En savoir plus][Accepter][Refuser]