REBLOG

Nous sommes en 2030, et les robots ont plus de droits que vous…

Nous sommes en 2030, et les robots ont plus de droits que vous…

Ruminer sur nos robots dominants et le scénario absent

Depuis le lancement de ChatGPT, l’intelligence artificielle (IA) fait l’objet d’un regain d’intérêt. Chaque fois que l’IA capte l’imagination du public, nous sommes soumis à des conjectures effrénées sur la façon dont elle va inévitablement envahir l’avenir et changer nos vies.

Nous sommes amenés à croire que l’IA ouvrira une ère de suzerains hyper-intelligents, si avancés que nos capacités cognitives analogiques et grossières seront dépassées, que la question existentielle du futur sera centrée sur :

  • Quel pouvoir ou quels droits conférons-nous à ces êtres ?
  • Agiront-ils de manière bienveillante ou malveillante à notre égard ?

Mais ces questions présupposent une hypothèse centrale autour de l’IA dont tout le monde s’accorde à dire qu’elle n’est pas vraie aujourd’hui mais qu’elle le deviendra inévitablement à l’avenir – après quelques itérations supplémentaires de la loi de Moore…

Il s’agit de l’idée que l’IA atteindra l’intelligence artificielle générale, ce qui implique un certain degré de sensibilité (sinon, il n’y a aucun droit à donner).

L’article de Newsweek à droite dans les images ci-dessus est écrit par le futuriste transhumaniste Zoltan Istvan. Il décrit comment les éthiciens de l’IA sont divisés sur la question de savoir si les futurs robots hyperintelligents devraient se voir accorder des droits.

D’un côté, en n’accordant pas de droits humains aux robots dotés d’une intelligence artificielle (AGI), nous commettons une « erreur de droit civil » que nous regretterons à l’avenir.

Ceux qui s’y opposent affirment que les robots sont des machines et n’auront jamais besoin de droits, car ils ne sont pas sensibles (c’est là que je me situe, et je vous dirai pourquoi ci-dessous).

D’autres croient en un terrain d’entente où certains robots qui font preuve d’intelligence générale se verraient accorder certains droits « en fonction de leurs capacités, de leur système moral et de leur contribution à la société » (ce qui me rappelle un peu la clause des « trois cinquièmes »).

Mais dans l’ensemble, Istvar semble supposer que l’IA atteindra une super-intelligence, et deviendra des êtres largement supérieurs, en termes de puissance cérébrale, aux sacs de viande maladroits que nous sommes.

Cela nous laisse avec trois voies possibles pour avancer :

#1. Faire appel à la bienveillance de la super-intelligence de l’IA

« Étant donné la possibilité de récompense ou de punition, si l’intelligence de la machine finit par devenir quelque chose comme un dieu de l’IA qui peut manipuler et prolonger considérablement la vie humaine pour le bien ou le mal, alors les gens devraient immédiatement commencer à envisager comment notre futur suzerain aimerait être amené à l’existence et traité. Par conséquent, la façon dont les humains traitent le développement de l’IA aujourd’hui – et le fait que nous accordions ou non des droits et du respect aux robots dans un avenir proche – pourrait faire toute la différence dans la façon dont notre espèce sera traitée un jour. »

Il s’agit d’une variante du pari de Pascal – une construction prototypique de la théorie des jeux qui concluait que les conséquences de croire en Dieu et d’avoir tort (le néant) étaient meilleures que d’avoir tort en ne croyant pas (la damnation éternelle).

#2 Espérance. Peut-être que les IA vont simplement nous laisser tranquilles.

Cependant, selon Istvan, « étant donné notre influence et la destruction environnementale que nous causons sur la planète Terre », nous pouvons « facilement aggraver les IA » qui prendront les choses en main pour corriger les choses, et nous. Ce dernier scénario est une variante du Basilic de Roko, qui est également mentionné dans l’article d’Istvan.

Le Basilic de Roko est une expérience de pensée qui a émergé du site LessWrong du programmeur Eliezer S. Yudkowsky, qui a ébranlé les fondations du site et effrayé les nerds autrement surdoués.

C’est « L’expérience de pensée la plus terrifiante de tous les temps ! », ironise le magazine Slate.

Elle inspire encore aujourd’hui la pensée de Yudkowsky. Il a récemment promulgué le « problème de l’alignement », qui part du principe que l’humanité créera inévitablement des IA superintelligentes et que celles-ci nous détruiront inévitablement. Autant « mourir dignement », puisque nous sommes tous condamnés de toute façon :

« trop long; pas lu : Il est évident à ce stade que l’humanité ne va pas résoudre le problème de l’alignement, ou même essayer très fort, ou même sortir avec beaucoup de combat. Puisque la survie est inatteignable, nous devrions concentrer nos efforts pour aider l’humanité à mourir avec un peu plus de dignité. »

Ces types de constructions de pensée autour de l’inévitabilité d’IA omnipotentes ne sont que des reformulations de l’argument ontologique de Saint Anselme. Formulé pour la première fois par Saint Anselme de Canterbury au XIème siècle. Bien qu’il s’agisse d’une impressionnante prouesse logique semblable aux paradoxes de Zénon, il s’agit simplement d’un argument circulaire selon lequel Dieu doit exister :

« Dieu est le plus grand être possible qui puisse être conçu. Si un tel être n’existe que dans l’esprit et non dans la réalité, alors un être plus grand peut être conçu – un être qui existe à la fois dans l’esprit et dans la réalité. »

En termes plus simples :

Dieu est l’être le plus parfait que nous puissions imaginer, et il est plus parfait d’exister dans la réalité que juste dans notre imagination. Par conséquent, Dieu doit exister dans la réalité.
– via ChatGBT session 72b43f3e-043f-4db2-aca9-63a76b7945c9

Donnez à Dieu un côté méchant, et vous avez le Basilic de Roko. Ou Skynet.

#3. Transférer notre conscience dans le cloud et fusionner avec les robots.

Ici, Istvan suggère que nous fusionnions avec l’IA et essayons de la guider.

Une dernière option consiste à essayer de fusionner avec l’IA en téléchargeant nos esprits dans celle-ci, comme l’a suggéré Elon Musk. L’espoir est que les gens ne fassent qu’un avec l’IA et la guident correctement pour qu’elle soit gentille avec les humains avant qu’elle ne devienne trop puissante. Cependant, il n’y a aucune garantie que nous y parvenions et l’IA pourrait se sentir violée à long terme.

Cette idée est attribuée à Elon Musk, mais je suis sûr qu’Istvan est conscient qu’il s’agit de l’essence même de la singularité défendue par Ray Kurweil (le scientifique en chef de Google) dans son livre The Singularity is Near. Les cosmistes russes essayaient de formuler la même chose il y a plus d’un siècle, mais ils ne disposaient pas encore des réseaux informatiques et de l’apprentissage automatique pour en fournir les bases.

Il y a des années, j’étais censé écrire un livre sur les dangers de ce techno-utopisme, et dans ce livre, j’appelle l’idée que l’humanité fusionnera avec l’IA et vaincra tous nos maux, « Le faux seuil » :

Ce qui rendrait tout cela possible, c’est le cycle vertueux créé par les réseaux informatiques numériques, alimentés par la loi de Moore, qui ne cessent de réduire de moitié leur empreinte physique tout en doublant leur puissance de traitement – nous finirions par atteindre, puis dépasser, l’interconnectivité et la puissance de traitement du cerveau humain lui-même.

Lorsque cela se produira, les paris seront ouverts. L’hypothèse est que, quelque part dans ce continuum, lorsque les bons seuils de parallélisme et de puissance de calcul seraient dépassés, l’esprit lui-même sortirait du processus, émergerait en force et se replierait sur lui-même, en créant des sous-processus encore plus intelligents que lui, et ainsi de suite, à l’infini. « Notre invention finale » examinera alors le monde, avec toutes ses déficiences et inefficacités, et, étant infiniment plus intelligente que tous les esprits humains réunis, elle résoudra tout avec habileté.

Kurzweil affirme que cela pourrait se produire dès 2029 et ces visions techno-utopiques dérivent presque toujours vers une version du néo-marxisme fondée sur un communisme de luxe entièrement automatisé.

La singularité comme ravissement

L’attente d’une IA superintelligente prenant en charge nos affaires (techno-utopisme) a tous les attributs d’une religion. J’en ai parlé à l’origine dans Transhumanism : The New Religion of The Coming Technocracy en réponse à un article de réflexion du WSJ (Looking Forward to the End of Humanity) selon lequel « le Covid-19 a mis en lumière la promesse… du transhumanisme et l’idée d’utiliser la technologie pour surmonter la maladie, le vieillissement et la mort ».

Ne vous méprenez pas, The Singularity a tous les attributs d’un événement eschatologique. Elle se distingue de la plupart des impulsions chrétiennes ou monothéistes parce que c’est nous qui donnons naissance à nos propres dieux. Cette dynamique d’usurpation (de Dieu ou, dans ce cas, de la réalité elle-même) lui donne une impulsion nettement luciférienne.

Le scénario manquant est que l’IA n’arrivera jamais

Un scénario que cet article n’envisage pas (ni aucun autre qui se regarde le nombril sur l’avenir de l’IA) est que l’IA n’existe pas vraiment et que croire que des IA sensibles et conscientes d’elles-mêmes prendront le contrôle du monde n’arrivera jamais.

(En passant, je dirai que la question de savoir si la majorité de la plèbe deviendra des serfs algorithmiques vivant sous le régime du crédit social et des CBDC est entièrement différente).

Nos lamentations sur la façon de traiter ces constructions logicielles super-intelligentes reposent sur une seule hypothèse qui est indémontrable :

C’est l’idée que l’esprit est un épiphénomène de la matière.

Le principe de base du scientisme (remarquez que je n’ai pas dit « science ») est que la conscience, la sensibilité et l’esprit sont tous des sous-produits de la matière. Quelque chose qui se produit lorsque certaines substances neurochimiques s’agitent dans un cerveau et que suffisamment de synapses s’allument et se connectent pour produire une conscience de soi.

C’est l’équivalent moderne de l’univers ptolémaïque (ou géocentrique) : la croyance que la Terre était le centre du cosmos.

C’était la « science établie » de l’époque, et toute contestation était passible du bûcher.

La réalité est que la matière est un sous-produit de la conscience, la couche de base de la réalité est mentale et non physique. C’est ce que l’on dit depuis longtemps (l’axiome hermétique « Tout est mental », tiré de textes bien plus anciens), et c’est aussi le fondement de la mécanique quantique.

« Je considère la conscience comme fondamentale. Je considère la matière comme dérivée de la conscience. Nous ne pouvons pas passer derrière la conscience. Tout ce dont nous parlons, tout ce que nous considérons comme existant, postule la conscience. »
– Max Planck

Vu sous cet angle, notre cerveau n’émet pas de la conscience comme une bouilloire évacue de la vapeur, il est un récepteur qui puise dans le substrat sous-jacent de la réalité et le filtre. Et si les fondements de la mécanique quantique établissent la primauté de la conscience, celle-ci ne peut être réellement expérimentée que par la gnose. Pour ceux qui ont fait cette expérience, il n’y a aucun doute. Pour tous les autres, il n’y a que du woo woo New Age.

À moins que l’IA ne soit abordée avec cette compréhension (et je ne m’attends pas à ce que quelqu’un prenne un jour cela au sérieux), nous pouvons supposer sans risque que l’IA généralisée, sensible et consciente d’elle-même, n’arrivera tout simplement pas.

Il est temps de faire le point sur la réalité

L’IA est vraiment l’itération actuelle de la « voiture volante ». Quelque chose qui a été utilisé pour symboliser l’avenir mais qui n’est jamais arrivé. Du moins pas sous sa forme stéréotypée. En effet, l’IA n’est pas vraiment une intelligence artificielle, c’est une imitation algorithmique.

Bien qu’elle puisse être très douée pour imiter algorithmiquement des comptables, des avocats, des médecins, des codeurs, des rédacteurs et même des grands maîtres d’échecs ou des champions de go, elle n’est toujours pas sensible, elle ne comprend toujours pas ce qu’elle fait réellement, elle n’a pas de conscience. Il pourrait tout aussi bien être un grille-pain.

C’est pourquoi se torturer avec des constructions largement théologiques sur des résultats auxquels nous attribuons une inévitabilité déplacée est plus que délirant, c’est déséquilibré.

L’erreur est aggravée lorsque nous élaborons des politiques publiques autour de ces hypothèses.

Une dynamique très similaire se joue dans le récit de la « crise climatique », où l’on nous abreuve de constructions hypothétiques issues de modèles informatiques auxquelles on attribue un caractère inévitable qui exige que l’humanité entière se réorganise autour d’elles. Les « reconfigurations » ou « recalibrages » de la société proposés (pour utiliser les euphémismes du FEM) suivent invariablement des lignes néo-marxistes et technocratiques.

Chaque chose en son temps : Récupérons nos propres droits tout de suite

L’ironie de toute cette introspection sur la façon dont nous traitons les IA et sur les droits qu’elles devraient avoir, c’est qu’ici, à l’ère du Covid, nous venons de voir nos propres droits humains fondamentaux abrogés. Par décret.

Nous ne les avons pas récupérés après la fin de la pandémie, car la plupart des obligations d’urgence ne sont que conditionnellement « en attente ». Nos droits de l’homme civils et universels sont désormais provisoires, à la demande de diverses autorités sanitaires non élues, de bureaucrates, d’apparatchiks et de toutes les folies qui sortent de Davos.

Si nous le permettons, la situation ne fera qu’empirer à mesure que les « urgences climatiques » se profilent à l’horizon et que nous sommes confrontés à la perspective réelle de confinements climatiques et de crédits sociaux basés sur les CBDC, les cartes de santé et le rationnement du carbone.

Nous avons abrogé nos propres droits dans le présent, pour ensuite ergoter sur ceux à accorder aux algorithmes logiciels inanimés du futur.

Traduction de Bomb Thrower par Aube Digitale

« Il n’y a qu’un problème, un seul de par le monde : rendre aux hommes une signification spirituelle »

[…] il n’y a qu’un problème, un seul de par le monde. Rendre aux hommes une signification spirituelle, des inquiétudes spirituelles, faire pleuvoir sur eux quelque chose qui ressemble à un chant grégorien.

On ne peut vivre de frigidaires, de politique, de bilans et de mots croisés, voyez-vous ! On ne peut plus vivre sans poésie, couleur ni amour. Rien qu’à entendre un chant villageois du XVe siècle, on mesure la pente descendue. Il ne reste rien que la voix du robot de la propagande. Deux milliards d’hommes n’entendent plus que le robot, ne comprennent plus que le robot, se font robots.

[…] Il n’y a qu’un problème, un seul : redécouvrir qu’il est une vie de l’esprit plus haute encore que la vie de l’intelligence, la seule qui satisfasse l’homme.

[…]  Ainsi sommes-nous enfin libres. On nous a coupé les bras et les jambes, puis on nous a laissé libres de marcher. Mais je hais cette époque où l’homme devient, sous un totalitarisme universel, bétail doux, poli et tranquille. On nous fait prendre ça pour un progrès moral !

[…] alors se posera le problème fondamental qui est celui de notre temps. Qui est celui du sens de l’homme et auquel il n’est point proposé de réponse, et j’ai l’impression de marcher vers les temps les plus noirs du monde.

Antoine de Saint-Exupéry – Lettre au général X (30 juillet 1944)

EN BANDE SON :

Catégories :REBLOG

1 réponse »

Laisser un commentaire