Le point sur les avancées du transhumanisme qui rêve d’un « individu augmenté ». Gloups !!

S’il fallait résumer la philosophie transhumaniste d’une idée, la plus extrême mais aussi la plus saisissante, ce serait celle-ci : un jour, l’homme ne sera plus un mammifère. Il se libérera de son corps, ne fera plus qu’un avec l’ordinateur et, grâce à l’intelligence artificielle, accédera à l’immortalité.

Science-fiction ? Pas si simple. Dans la Silicon Valley, l’idée de l’« homme augmenté » n’effraie personne. Pas plus que celle de longévité indéfinie. Cette enclave en dehors des contraintes temporelles a quitté depuis longtemps le XXe siècle, ses conventions de langage et de pensée. Ce qui paraît tabou ailleurs lui semble empreint d’un principe de précaution dépassé par les progrès exponentiels de la science. Elle invente des mots, comme « disruption », la faculté de perturber l’ordre établi, et peu se soucient que les mutations promettent de mettre sur la paille des industries entières. Sûre de sa « révolution », elle vit dans sa bulle – ou son nuage – numérique. « L’idéologie de la Silicon Valley, c’est celle de la toute-puissance », résume un investisseur étranger. Les seigneurs californiens « veulent être les maîtres du monde ». Mais il ne faut pas en déduire, ajoute-t-il, que « c’est forcément mauvais pour l’humanité ».

Bastion de la contre-culture

La Californie, bastion de la contre-culture des années 1960 et des débuts de l’informatique, baigne dans la conviction que l’homme va améliorer la machine autant que la machine va améliorer l’homme. Les critiques parlent de « solutionnisme numérique » ou de « techno-libertarianisme » : la certitude que la résolution des grands problèmes de l’humanité passe par l’avancée de l’intelligence artificielle, combinée à une philosophie politique hostile aux réglementations dictées par les gouvernements. Les nouveaux maîtres du monde estiment, eux, qu’ils incarnent le progrès. Ils sont jeunes. Leurs ingénieurs voient se développer leurs innovations plus vite qu’ils ne l’avaient jamais envisagé. La voiture sans chauffeur ? Elle est là, qui n’attend plus que le feu vert des autorités de régulation. Les robots ? Ils aiguillent déjà les consommateurs dans les allées des magasins. Les patrons de la high-tech ont pris les rênes de l’innovation mondiale à l’âge de 30 ans. En quelques années, ils ont vu leurs start-up d’étudiants être valorisées à plusieurs milliards de dollars. Pourquoi ne feraient-ils pas reculer la mort ?

« Biohackers »

Les transhumanistes se situent à l’extrême de cette logique techno-utopiste. C’est l’individu lui-même qu’ils rêvent de transformer. Ils veulent abolir les contraintes de la condition humaine et revendiquent le droit individuel à la prise de risques, aux greffes d’organes artificiels, aux modifications génétiques. Les partisans de l’« homme + » croient à la « liberté morphologique » : le droit absolu de disposer de son corps. Ils discutent ouvertement de l’allongement indéfini de la vie, de l’éradication des maladies, du moment où les micro-robots iront détecter les cellules cancéreuses à l’intérieur des organes. Quelques-uns, appelés « biohackers », vont jusqu’à mener des expériences sur leurs propres organes. L’informaticien britannique Aubrey de Grey, qui dirige la Fondation Methuselah, un institut de gérontologie de Mountain View (Californie), voit le corps comme une voiture dont il suffira de remplacer les pièces pour la conserver indéfiniment. A l’entendre, l’expression « mort naturelle » n’aura bientôt plus aucun sens. La vie n’est qu’une question de maintenance, finalement.

Le transhumanisme existait avant l’explosion des hautes technologies, et ce courant de pensée ne se réduit pas à la Silicon Valley. Le mot lui-même remonte au théoricien de l’eugénisme Julian Huxley – le frère d’Aldous, l’auteur du Meilleur des mondes (Plon, 1932). Il a reparu au début des années 1990 en Californie du Sud, dans le magazine Extropy, de Max More, un philosophe diplômé d’Oxford qui a pris le nom de « more » (plus) pour signifier « l’essence de qui il veut être ». Puis, en 2003, dans un manifeste du suédois Nick Bostrom, fondateur de la World Transhumanist Association, et aujourd’hui directeur du Future of Humanity Institute d’Oxford. Il y inscrivait le transhumanisme dans la tradition des Lumières : au lieu d’améliorer la condition humaine par l’éducation ou la culture, il s’agissait d’en repousser les limites par la génétique et l’informatique. Une perspective que l’accélération fulgurante des capacités de l’intelligence artificielle, alliée aux promesses des biotechnologies, a considérablement renforcée.

Résurrection technologique

Si le transhumanisme se diffuse, selon Jaron Lanier, membre de l’équipe de recherche de Microsoft, c’est parce qu’il baigne dans la mythologie de la Vallée. « La montée en puissance des monopoles du Net coïncide avec une nouvelle sorte de religion fondée sur l’immortalité », estime-t-il. « C’est un mouvement qui reste marginal, mais dont la vision du monde se répand, en particulier dans la Silicon Valley », confirme Marcy Darnosky, la directrice du Center for Genetics and Society, un institut de politique publique installé à quelques rues du campus de l’université de Berkeley.

Jusqu’à l’expansion des réseaux sociaux, le mouvement se limitait à des amateurs de science-fiction et des jusqu’au-boutistes cinglés, qui faisaient congeler leur corps – ou seulement leur tête, c’est moins cher – dans la perspective de la résurrection technologique. Aujourd’hui, la congélation est un peu passée de mode, mais la philosophie de l’homme « plus » s’est diffusée. Les nouveaux transhumanistes ont quasiment pignon sur rue, ou en tout cas des dizaines de groupes Meetup (site Web de réseautage social), des centaines de pages sur Facebook, des tribunes répétées dans les médias, un site international au nom rassembleur : Humanity +. Et des films cultes, dont Transcendance, de Wally Pfister, avec Johnny Depp, sorti en 2014, qui montre le « back-up du cerveau ». Autant dire le saint graal : le transfert de la mémoire et de l’esprit humain sur le disque dur d’un ordinateur.

Mise en garde

Pur fantasme ? Longtemps, la majeure partie de la communauté scientifique est restée sans réaction face aux thèses des transhumanistes, qu’elle jugeait peu crédibles. Mais l’inquiétude commence à poindre. Peu après la sortie de Transcendance, une première mise en garde a pris la forme d’une tribune dans The Independant. « Si l’impact à court terme de l’intelligence artificielle dépend de qui la contrôle, à long terme l’impact est de savoir si elle peut tout simplement être contrôlée », y soulignaient l’astrophysicien Stephen Hawking et trois autres chercheurs de renom. Depuis, d’autres grands noms – Elon Musk, le fondateur de Tesla, ou Bill Gates – ont fait écho à ces préoccupations. Le 12 janvier, enfin, une lettre sans précédent a été publiée sur le site du Future of Life Institute, une association fondée en 2014 qui cherche à limiter les risques encourus par l’humanité du fait du développement des machines. Le texte prend acte des avancées effectuées grâce à ces dernières et estime que l’« éradication de la maladie et de la pauvreté n’est pas inconcevable ». Mais il juge tout aussi important d’« éviter les pièges potentiels » de ces progrès technologiques.

« Il y a beaucoup de domaines dans lesquels on tenait pour acquis qu’on ne réussirait pas de notre vivant. Maintenant, les gens se disent : attention, on va peut-être réussir », résume Max Tegmark, professeur de physique au Massachusetts Institute of Technology (MIT) et cofondateur du Future of Life Institute avec l’informaticien estonien Jaan Tallinn (lui-même cofondateur de Skype). Car les transhumanistes, pour étayer leurs croyances, s’appuient sur l’accélération continue de la vitesse de calcul des semi-conducteurs (la conjecture de Gordon Moore, le fondateur d’Intel). Une évolution qui, selon eux, conduira à ce moment où la machine prendra le dessus.

Les plus extrêmes pensent que c’est le destin de la race humaine de créer des entités plus intelligentes qu’elle, et peu importe qu’elle disparaisse au passage, tout comme les animaux ont dû s’effacer devant les besoins humains. L’homme ne représentera plus, selon eux, qu’un paquet d’atomes, à la merci des besoins en molécules de la super-intelligence. D’autres prévoient plutôt une combinaison cerveau-machine : l’espèce humaine ne disparaîtrait pas mais serait transformée. Au mieux, la machine trouvera à l’homme quelque utilité. « On nous gardera peut-être comme animaux de compagnie », ironise Jaron Lanier. Le moment où la machine surpassera l’homme est appelé « singularité », un concept défini par le mathématicien et auteur de science-fiction Vernor Vinge en 1993. La majorité des scientifiques parlent plutôt d’« explosion d’intelligence », selon le terme du statisticien Irvine J. Good en 1965 : ce moment où la machine sera capable de se reprogrammer elle-même pour augmenter à l’infini ses capacités. L’homme, avec son nombre limité de neurones (100 milliards tout au plus), ne sera plus qu’un nain face à l’ordinateur : à l’image de ce qu’est la méduse (800 neurones) au cerveau humain aujourd’hui…

Relais actifs

Le mouvement a des relais actifs : Ray Kurzweil, 66 ans, considéré comme un génie par la plupart de ses pairs pour ses inventions dans le domaine de la reconnaissance optique (scanner) et vocale (lecture à haute voix pour aveugles), qui a popularisé le concept de singularité. Peter Thiel, le techno-libertarien fondateur de PayPal, qui se revendique rarement publiquement d’un courant que certains, selon sa propre expression, « voient comme au-delà des limites respectables », mais qui en est un des piliers financiers. Ou Peter Diamandis, médecin diplômé de Harvard, ingénieur passionné de conquête de l’espace, qui promet « l’abondance » pour tous et qui a lui-même investi dans nombre d’activités, du séquençage du génome aux espoirs de forages miniers dans l’espace.

Ray Kurzweil se flatte que ses prédictions (au nombre de 108 entre 1990 et 2009) se soient réalisées à 86 %, le reste lui ayant échappé à quelques années près. Il avait prévu l’arrivée de la voiture sans chauffeur, à un moment où l’Internet était encore à ses débuts. Depuis, « davantage de gens le prennent au sérieux », remarque Max Tegmark. Kurzweil pense que la marche vers l’intelligence artificielle va continuer à s’accélérer. Aux environs de 2029, « les ordinateurs seront indistincts des humains pour ce qui concerne le langage ». Vers 2045, « la civilisation sera intégrée. Nous étendrons les capacités du néocortex », qui sera connecté à un équivalent synthétique dans le cloud (stockage de données). Ses prédictions s’arrêtent là. L’humain aura été tellement manipulé dans ses fonctions qu’il est impossible, passé ce point de non-retour, de prédire à quoi la vie ressemblera… « Potentiellement, c’est l’événement le plus dangereux pour la civilisation. Tout à coup, nous ne serons plus seuls », assène Zoltan Istvan, auteur, en 2013, du roman The Transhumanist Wager (« Le “Pari” transhumaniste), qui s’est vendu à 40 000 exemplaires.

Lire aussi : Ray Kurzweil, bateleur pour Google

Faut-il prendre ces perspectives au sérieux ? Après tout, Ray Kurzweil ne publie pas d’articles sur ses travaux dans les revues scientifiques, et il n’intervient pas dans les congrès traditionnels sur l’intelligence artificielle. Marcy Darkovsky, dont l’institut est devenu une sorte de « watchdog » (« chien de garde ») des transhumanistes, met toutefois en garde contre un excès de réserve de la part de la communauté des chercheurs – réserve qu’elle avait déjà constatée il y a une quinzaine d’années après les premiers clonages d’animaux. « On ne veut pas donner une légitimité aux transhumanistes, mais on ne peut pas non plus les ignorer, déclare-t-elle. Que ce qu’ils disent soit techniquement possible ou non, ils ont le potentiel pour changer notre culture en substituant des solutions techniques aux changements politiques et sociaux qui amélioreraient la vie des gens. »

Jusqu’ici, les scientifiques s’employaient surtout à perfectionner les machines, répond le physicien Max Tegmark. Mais devant les investissements énormes et la compétition qui règne entre les géants de la technologie – car tous ou presque ont maintenant leur laboratoire sur l’intelligence artificielle, sans parler de ce que préparent sans doute les ingénieurs sur les rives asiatiques du Pacifique –, ils commencent donc à se mobiliser. « C’est une course entre le potentiel grandissant de l’Intelligence artificielle et notre sagesse pour le gérer, ajoute le physicien. Tous les investissements sont consacrés à essayer d’augmenter les capacités des machines, et pratiquement rien n’est investi du côté de la sagesse ».

« Culture de responsabilité »

Selon les chercheurs signataires de la lettre publiée par Future of Life Institute, l’intelligence artificielle a le même potentiel de destruction que le nucléaire, dont l’humanité, des décennies après sa mise en œuvre, essaie toujours de contenir les dangers. « Comme les physiciens nucléaires et les généticiens avant eux, les chercheurs de l’intelligence artificielle doivent se préparer à l’idée que leurs recherches pourraient aboutir et faire en sorte que les résultats soient bénéfiques à l’espèce humaine », explique Stuart Russell, l’une des sommités de l’intelligence artificielle et principal rédacteur du manifeste. Les chercheurs ne savent pas si – ou quand – se produira le phénomène de l’« explosion d’intelligence » (le moment où la machine surpassera l’homme dans les tâches cognitives). Mais ils estiment qu’il faut s’y préparer. « Il n’est pas besoin de robots maléfiques comme dans les films, précise Stuart Russell. Il suffirait d’une mauvaise adéquation entre la tâche qu’on assigne à la machine et celle qu’on veut qu’elle remplisse en réalité ».

L’initiative a rencontré un écho inattendu : 5 000 signataires. « C’est le signe qu’une culture de responsabilité est en train de se développer dans la communauté de l’intelligence artificielle elle-même », se félicite M. Tegmark. Parmi les signataires figurent une cinquantaine d’ingénieurs de Google, le directeur de l’intelligence artificielle de Facebook, l’équipe du superordinateur Watson d’IBM, les trois cofondateurs de DeepMind, le laboratoire d’intelligence artificielle racheté par Google, et Elon Musk, qui a décidé de donner 10 millions de dollars (8,9 millions d’euros) à l’institut pour encourager les recherches sur les risques encourus. On y trouve même des transhumanistes, ainsi que l’inventeur du mot « singularité », Vernor Vinge. Un absent de marque : Ray Kurzweil.

Conséquences néfastes

Sur le plan politique, les transhumanistes voient grand, large et lointain. Ils sont à la science ce que les néoconservateurs ont été à la diplomatie. Des théoriciens de la transformation qui balaient comme passéistes tous ceux qui leur opposent une réalité autre que celle qu’ils sont en train de fabriquer en 3D. Ils pensent que la technologie va sortir l’humanité de l’âge de la pénurie. L’énergie sera illimitée grâce au solaire. Plus de problèmes de nourriture : la viande sera « imprimée ». Certains expriment des soucis de justice sociale. Mais, là encore, la technologie y pourvoira. « Un Masai muni d’un téléphone portable dispose de plus d’informations aujourd’hui que le président des Etats-Unis il y a quinze ans », affirme Peter Diamandis, qui se réjouit de savoir que « 3 milliards d’individus de plus seront connectés » dans la prochaine décennie. Il suffira aux villageois du fin fond de l’Afrique d’expédier, grâce à leurs smartphones, leurs résultats médicaux à un spécialiste sur un continent lointain. Celui-ci établira le diagnostic, et les médicaments seront obligeamment livrés par un drone.

Les humanistes jugent cette approche simpliste, voire dangereuse. Pour eux, le transhumanisme néglige les conséquences néfastes des technologies dans le monde d’ici et maintenant : l’augmentation des inégalités, les millions d’emplois menacés au fur et à mesure que les ordinateurs rempliront nombre de tâches mieux que les humains. « Quel sera le rôle de l’homme ? Quelles structures sociales faudra-t-il pour parvenir à une société de faible emploi mais florissante ? », demande Max Tegmark. Comment empêchera-t-on les « armes autonomes » de déclencher des conflits accidentels ? Sans parler des critères éthiques qui présideront aux choix des machines : entre renverser un cycliste et provoquer des dommages matériels coûteux, que décidera une voiture sans chauffeur ?

Derrière les big data, les humanistes voient aussi pointer le « big money ». « On nous vend la technologie comme si c’était un bienfait intégral, estime Peter Shanks, du Center for Genetics and Society, mais le résultat pourrait bien être que ce que nous prenons pour des merveilles high-tech soit en fait l’instrument du pouvoir exercé par quelques-uns sur le reste d’entre nous ». L’« immortalité » rêvée par les transhumanistes deviendrait l’apanage des puissants.

Corine Lesnes

Lire l’article sur Le Monde.fr