Essentialisme

Scientisme : L’intelligence artificielle se heurte à la barrière du sens et de la conscience (Avec Note du LUPUS)

L’intelligence artificielle se heurte à la barrière du sens et de la conscience

intelligence artificielle barrière sens conscience

Melanie Mitchell, professeur de science informatique à Portland State University, signait lundi une tribune dans le New York Times pour expliquer les limites auxquelles se heurtent les algorithmes d’intelligence artificielle. D’une incroyable puissance mathématique, l’AI ne comprend pas les choses à la manière des êtres humains, puisque pour elle il n’y a pas de sens, note l’universitaire. Et surtout pas de conscience, faudrait-il ajouter. Mme Mitchell ajoute que l’intelligence artificielle ne comprend « pas encore », comme si elle pouvait atteindre un jour cette similitude avec l’homme, ce qui précisément distingue celui-ci de l’animal.
 
« Vous avez probablement entendu dire que nous sommes au milieu d’une révolution AI. On nous dit que l’intelligence artificielle progresse à un rythme étourdissant, puissamment alimentée par les algorithmes d’“apprentissage profond” qui utilisent d’énormes quantités de données pour entraîner des programmes compliqués connus sous le nom de “réseaux neuronaux” », écrit-elle.
 
Cela donne des logiciels capables de reconnaître des visages ou de transcrire des phrases parlées, de repérer des fraudes financières subtiles ou d’apporter des réponses pertinentes à des questions formulées de manière ambiguë, voire de battre les meilleurs joueurs d’échecs ou de go. Même les avancées scientifiques pourraient se faire à l’avenir de manière automatisée.
 

L’intelligence artificielle, science sans conscience

 
Melanie Mitchell cite le fondateur de Facebook, Mark Zuckerberg : il suffira selon lui de cinq à 10 ans pour que sa société développe une intelligence artificielle capable « d’atteindre des niveaux meilleurs que ceux des êtres humains pour l’ensemble des sens primaires : vision, ouïe, langage, cognition générale ». Autrement dit, comme l’a déclaré Shane Legg, chercheur principal du groupe de Google DeepMind, « On passera l’étape de l’intelligence artificielle de niveau humain au milieu des années 2020 ».
 
Des prédictions vouées à l’échec, affirme Melanie Mitchell en se référant à sa propre expérience des promesses non tenues de l’intelligence artificielle. « Le défi de la création d’une intelligence semblable à celle de l’homme au sein des machines demeure fortement sous-estimée. L’essence de l’intelligence humaine manque cruellement aux systèmes d’AI actuelle : il s’agit de comprendre les situations que nous vivons, d’être capable de saisir leur sens. »
 
Et d’évoquer les fêlures qui se révèlent dans les fondations de l’intelligence artificielle moderne. Certes, celle-ci a progressé de manière spectaculaire au cours de ces 20 ou 30 dernières années, mais la recherche montre la faillite des systèmes qui décidément, ne ressemblent pas à l’homme. Melanie Mitchell donne l’exemple d’une traduction par Google d’une phrase aussi simple que celle-ci : « I put the pig in the pen. » En français googlisé, cela donne : « Je mets le cochon dans le stylo. » La traduction exacte serait : « J’ai mis le cochon dans l’enclos. » L’homonymie a trompé le traducteur automatique. On pourrait imaginer un algorithme mieux contextualisé qui tiendrait compte du fait que le mot « cochon » est plus souvent associé au mot « enclos » qu’au mot « stylo » (encore que l’on puisse arguer qu’un écrivain libertin cache un cochon dans son stylo…). Mais il s’agirait encore de calculs, de fréquences, de probabilités qui ne constituent pas en eux-mêmes l’intelligence d’un sujet.
 

La barrière du sens et de la conscience mise en lumière par une universitaire

 
Universitaire signale des études qui ont permis de constater que les programmes qui « lisent » les documents et répondent à des questions à leur sujet peuvent être facilement « trompés » lorsqu’on y ajoute des bouts de texte sans rapport. De même, des logiciels de reconnaissance de visages d’objets échouent lamentablement lors de l’introduction de certaines légères modifications qui n’empêchent en rien un être humain d’identifier correctement la personne ou l’objet.
 
Tout récemment, une photo en trompe-l’œil qui a fait le tour d’Internet a montré que l’ordinateur ne sait pas « reconnaître » un chat dont la pose le fait ressembler à un corbeau : l’homme ne s’y laisse pas prendre.
 
Mme Mitchell cite quant à elle une étude montrant que l’introduction d’une image d’éléphant dans un salon – le célèbre « éléphant dans la pièce » – conduit les algorithmes d’AI à ne plus reconnaître correctement les objets qui l’entourent. Idem pour les algorithmes qui jouent à des jeux (mathématiques) comme le go ou des jeux vidéo : ils sont totalement perdus lorsqu’on introduit un petit changement dans le jeu qu’ils ont appris, telle la modification de la couleur d’arrière-plan ou de l’emplacement d’une « raquette » virtuelle.
 

Les ratés de l’intelligence artificielle, incapable de reconnaître la pièce autour de l’éléphant

 
Dans la vraie vie, à mesure que l’intelligence artificielle joue un rôle croissant dans la société, ce type de ratés peut avoir des conséquences de plus en plus désastreuses : confondre un innocent avec un criminel, ou pour une voiture sans conducteur, ne pas « voir » un piéton sur le point de traverser la route en raison d’un éclairage inhabituel. A l’inverse, une modification subtile introduite dans un logiciel d’AI par un pirate malveillant peut aussi provoquer des réponses catastrophiques. Or ce sont des attaques possibles dont les conséquences ont déjà été mises en évidence pour des dispositifs de reconnaissance faciale, de conduite sans chauffeur – ainsi un autocollant habilement placé sur un signe stop peut conduire un tel véhicule à n’y voir qu’un « cédez le passage » – ou d’assistance virtuelle. Ainsi, la modification d’un signal audio, imperceptible à l’oreille humaine, peut déclencher une commande sur Siri ou Alexa.
 
C’est précisément l’incapacité à comprendre de manière humaine qui constitue selon Melanie Mitchell le gros danger de l’intelligence artificielle : « Ces programmes ne comprennent ni les données qu’elles traitent ni ce qu’elles produisent en sortie. Cette absence de compréhension rend ces programmes vulnérables à l’écart d’erreurs inattendues et d’attaques indétectables. »
 

L’intelligence artificielle… n’est pas humaine, car incapable de Dieu

 
Le sens commun, la compréhension des motivations et des comportements probables des êtres qui nous entourent, particulièrement les êtres humains, la capacité à généraliser, à former des concepts abstraits et à faire des analogies, tout cela qui relève de l’intelligence humaine a fait l’objet d’études sans fin de la part des développeurs de l’intelligence artificielle qui voudraient en doter leurs algorithmes, souligne l’auteur : » Mais il y a eu très peu de progrès dans cette entreprise très difficile. »
 
Cela veut dire que les dispositifs d’intelligence artificielle actuellement déployés sont en réalité dangereux du fait d’une « autonomie » excessive qui ne tient pas compte de cette limite, il faudrait dire de cette frontière entre la machine et l’homme. Melanie Mitchell cite Pedro Domingos, chercheur en AI : « Les gens sont inquiets de voir les ordinateurs devenir trop intelligents et prendre le contrôle du monde, mais le vrai problème est qu’ils sont trop stupides et qu’ils ont déjà pris le contrôle du monde. »
 
Melanie Mitchell en tire la conclusion qu’il va falloir mieux connaître nos propres capacités intellectuelles et le mode de fonctionnement de l’intelligence humaine pour espérer un jour en doter une intelligence artificielle enfin devenue « fiable ».
 

Etudier le sens et la conscience pour créer une AI « fiable »

 
Mais cela est-il possible ? L’intelligence humaine ne se réduit pas et ne saurait se réduire à la matière puisqu’elle participe de son identité d’être raisonnable, en cela « à l’image de Dieu ». L’intelligence artificielle est une singerie d’intelligence, dotée par l’homme de ce qu’on pourrait appeler le substrat de l’intelligence, sans la rendre consciente de son objet. Pour elle la réalité ne sera jamais intelligible, même si elle parvient à en saisir tous les aspects sensibles. On pourra sans doute améliorer ses capacités de calcul, de mémoire, de logique binaire… On pourra peut-être même la mettre « en réseau » avec un cerveau humain, c’est le but des transhumanistes. Et tout cela annonce des développements insoupçonnés, et effrayants, car le but est de nier la nature humaine en effaçant les frontières qui la séparent de la matière, tout comme on cherche à effacer les limites qui séparent l’homme de l’animal. Mais l’intelligence artificielle, on ne l’amènera jamais à comprendre, ni à aimer.


 

Jeanne Smits

https://reinformation.tv/intelligence-artificielle-barriere-sens-conscience-smits-89860-2/

OK+++++++++++++++++++++++++++++++++++

NOTE DU LUPUS

L’intelligence artificielle se heurte à la barrière du sens et de la conscience ?

OUI, le fonctionnement de la machine s’oppose fondamentalement à celui de l’humain qui est fait de chair et d’esprit.

Mais NON pas quand les machines sont faites par des humains qui raisonnent de façon binaire, de manière linéaire c’est à dire uniquement en termes de causalité-conséquences et à l’aide fausses corrélations entre les datas… Heureusement pour nous les milieux informatiques foisonnent de ce genre de tristes sires…Le jour ou la gestion paradoxale sera du domaine de l’intelligence artificielle, qui porte bien son nom, alors nous aurons du soucis à nous faire, mais ce jour là n’est pas près d’arriver !
Pour l’heure plutôt que de fermer ses comptes sur les réseaux sociaux ou autres mieux vaut balancer quantité de fausses données, c’est comme avec les fakes news cela pollue , cela fausse les résultats et ils n’aiment pas ça.

EN BANDE SON : 

 

9 réponses »

  1. Il semble bien que l’exemple porte effectivement sur « pen » ( = parc ou enclos) et pas « den » ( = tanière), c’est à dire vraiment une homonymie, pas une coquille typographique.

  2. IA ne sera jamais capable de composer un opéra ou peindre un tableau tout simplement parce que la sensibilité et l’émotion ne peut être un schéma numérique. Elle ne pourra jamais rivaliser avec un philosophe ou un artiste car le cerveau humain est tellement plus complexe et puissant qu’un système informatique.


    https://polldaddy.com/js/rating/rating.js

  3. L’intelligence artificielle n’existe pas !!!! Si elle est artificielle, c’est qu’elle n’est pas d’elle-même : elle est juste programmée par une intelligence supérieure !!!! Allez dire que les robots d’une chaîne de montage ont une intelligence à eux 😮 Et pourtant ils sont bien plus performants que les pseudos androïdes programmés pour répondre de la merde macronesque bien fumante et pompeuse comme de bons universitaires les ont programmés.
    C’est une immense fumisterie médiatisée au taquet pour enjouer une moitié de la population et apeurer l’autre moitié… et surtout pour se construire une armée de robocops qui seront ENCORE mieux programmés que nos CRS et militaires actuels-( Finies les drogues aux soldats, on passe aux drones comme soldats.


    https://polldaddy.com/js/rating/rating.js

    • Les politiciens sont à l’image de ceux qui les élisent et de leur degré d’inconscience politique

      Trouvé ceci chez nicolas bonnal un bon résumé des choses, les barbares ne sont pas toujours ceux à qui l’on pense :

      « Lorsque les conquérants germains et francs qui, unis aux purs Gaulois et aux Celtes, constituèrent véritablement la France, eurent perdu leur vigueur, l’élément gallo-romain l’emporta, la race latine prit le dessus ; or cette race est faite pour la tyrannie puisqu’elle n’a aucun ressort de conscience ; elle adore une idole imbécile, une idole de marbre ou de plâtre qu’on appelle la loi, et au nom de cette loi, elle subit tout… Il n’y a qu’en France qu’un gouvernement ait pu s’appeler, comme par une désignation constitutionnelle : la Terreur » (Edouard)

Laisser un commentaire