Art de la guerre monétaire et économique

Des robots qui s’adaptent vite aux blessures comme les animaux/ Un plan pour contenir l’essor de l’intelligence artificielle

Des robots qui s’adaptent vite aux blessures comme les animaux

Olivier Dessibourg /  Le Temps  Jeudi 28 mai 2015

Une patte endommagée, mais l’automate trouve bien vite un autre moyen d’avancer quasi aussi efficacement qu’avant (Antoine Cully/UPMC)

Une patte endommagée, mais l’automate trouve bien vite un autre moyen d’avancer quasi aussi efficacement qu’avant (Antoine Cully/UPMC)

Une équipe franco-américaine de chercheurs en intelligence artificielle a mis au point un algorithme d’apprentissage évolutionniste permettant à des automates, lorsqu’ils sont mécaniquement endommagés, de trouver très rapidement la parade pour continuer la tâche qui leur a été assignée. Un pas de plus vers l’autonomisation et l’indépendance des machines

«Jusque-là, le principe était de programmer dans le robot des méthodes de diagnostic utiles lorsque l’engin se voyait atteint, qui lui permettaient ensuite d’appliquer des plans d’urgence, eux aussi pré-inscrits dans la mémoire du système: un processus lourd, coûteux et lent, dit Antoine Cully, de l’Université Pierre et Marie Curie à Paris et auteur principal de ces travaux. Notre idée a été de permettre au robot de s’adapter rapidement à une nouvelle forme de sa constitution, ou à des situations non anticipées dans son environnement, cela en le laissant apprendre à gérer ces changements tout seul.»

Avec ses collègues américains, et travaillant avec des robots à six pattes, le chercheur a mis en place une stratégie inédite. Dans un premier temps, les automates sont incités, en mode «simulation», à tester tous les mouvements réalisables avec leurs membres et à qualifier ceux-ci selon une échelle d’utilité et d’importance. Comme un bébé qui découvre à quoi peuvent bien lui servir ses bras et ses jambes. «Toutes ces connaissances n’ont pas été programmées par des ingénieurs, mais bien générées par les machines», insiste le doctorant. Une phase qui peut durer longtemps, mais qui n’est à accomplir qu’une fois.

Second temps de la marche: divers dégâts sont induits chez les robots (une ou deux pattes arrachées, ou rendues rigides, patte réparée avec un morceau de bois, etc.). «La machine va alors lancer son algorithme non pour repérer l’avarie, mais pour tenter d’adopter, malgré les dommages, des comportements qu’elle savait fonctionner lorsqu’elle était intacte, en puisant dans ses connaissances acquises lors de la phase précédente. De même qu’un homme, même s’il a deux jambes, sait qu’il peut marcher à cloche-pied ou à quatre pattes…»

«C’est comme si, avant sa détérioration, le robot avait «vécu longtemps», commente Auke Ijspeert, professeur en robotique à l’EPFL, qui mène des recherches similaires. Si sa morphologie change, au lieu de repartir de zéro pour relancer son fonctionnement, le robot puise dans son immense mémoire des situations simulées celles qui sont les plus appropriées afin de poursuivre sa tâche – avancer, par exemple. Et, grâce à l’algorithme implémenté, il le fait de manière très efficace.» Et Antoine Cully de détailler: «Le robot ne teste pas toutes les possibilités de remédiation les unes après les autres (il y en a des milliers), cela lui prendrait trop de temps. Il ne comprend même pas l’ampleur des altérations sur lui, car il ne procède à aucun diagnostic. Il s’efforce de trouver la meilleure action à mener en dépit du dommage.» «Il procède en suivant son intuition, tel un animal blessé, qui ne doit pas complètement réapprendre à marcher», résume Jean-Baptiste Mouret, responsable de ces recherches.

L’avantage d’agir ainsi est énorme, selon le chercheur: «Alors que plusieurs heures, voire des jours, sont d’ordinaire nécessaires pour appliquer la méthode «diagnostic-compensation», la nôtre prend moins de deux minutes!» Un tel gain de temps peut être crucial. D’abord parce qu’il permet d’économiser les batteries de ces engins. Mais surtout parce qu’il les fait vite s’adapter aux environnements hostiles dans lesquels ils doivent parfois évoluer, loin de tout ingénieur pouvant les réparer: exploration des fonds marins, d’autres astres (planètes, astéroïdes, etc.), de terrains encombrés ou dangereux après des catastrophes (naturelles ou nucléaires), engagement sur des champs de bataille.

Sur ce dernier point, Antoine Cully ne se cache pas: la Direction générale de l’armement française (DGA) a financé la moitié de sa thèse, voyant l’intérêt de disposer de robots militaires de plus en plus autonomes malgré les dégâts que peuvent induire sur eux les combats. L’armée française n’est évidemment pas la seule à porter de l’attention au secteur de la robotique mobile. Aux Etats-Unis, la Darpa, l’agence de la défense pour les projets de recherche avancés, organise depuis des années un concours de robots. L’édition 2015, impliquant des engins plus ou moins humanoïdes, a lieu les 5 et 6 juin en Californie. Et l’équipe d’Antoine Cully envisage d’y participer à l’avenir. «On ne peut nier l’intérêt militaire pour ce genre de travaux, admet Antoine Cully. Mais ceux-ci trouvent aussi des applications très utiles dans la société. Avec les robots ménagers aidant les personnes âgées, par exemple, l’intérêt est de s’assurer que ces auxiliaires continuent rapidement à fonctionner, même en cas de problème partiel.»

Pour le chercheur, le fait même que ces robots acquerront plus d’autonomie, nécessitant moins de supervision humaine, permettra aussi de les multiplier sur le terrain.

Qu’en est-il de la possibilité que, à travers ces recherches notamment, les machines développent à outrance leur intelligence au point qu’elle surpasse celle de l’homme, comme l’ont averti plusieurs éminences scientifiques en janvier 2015? «Il ne faut pas confondre augmentation de l’autonomie et accroissement de l’indépendance dans les choix des actions, rétorque Antoine Cully. Les robots vont toujours devoir accomplir la tâche qui leur a été demandée, ils trouveront simplement, en cas de problème, un autre moyen d’y parvenir. Mais ils ne vont pas modifier d’eux-mêmes l’objectif assigné.» De son côté, Auke Ijspeert estime aussi n’avoir «aucun souci qu’il y ait une perte de contrôle. Les scénarios hollywoodiens ne se concrétiseraient pas avant au moins une centaine d’années!» Et Antoine Cully de reprendre: «La perspective d’accorder plus d’indépendance aux robots peut paraître effrayante. Mais les animaux aussi ont une certaine indépendance. Ils ne présentent pas pour autant une menace pour l’humanité; l’on vit avec.­ ­Il suffira d’«éduquer» les robots comme on éduque chiens et chats – ce sera même plus facile… Actu­ellement, nous restons très très loin de pouvoir reproduire l’intelligence humaine, capable entre autres de généralisation et d’abstraction.» Autrement dit, de simuler le fonctionnement du cerveau humain.

Dans un commentaire paraissant aussi dans Nature, Christoph Adami, généticien et physicien à l’Université de l’Etat du Michigan, pousse plus loin cette réflexion: «Devant notre incapacité à créer des robots qui reproduisent ne serait-ce que le comportement rapide, intuitif et souvent très approprié des plus petits rongeurs, il est peut-être temps d’abandonner notre idée de recréer le cerveau et, à la place, de placer nos espoirs dans la puissance des algorithmes adaptatifs et évolutionnistes», comme celui d’Antoine Cully et de ses collègues, tant les bonnes stratégies sont ici améliorées en boucle par les deux concepts chers à Darwin: la réplication avec variations, et la sélection.

http://www.letemps.ch/Page/Uuid/393ab600-0495-11e5-a2d8-dac5eea792f9/Des_robots_qui_sadaptent_vite_aux_blessures_comme_les_animaux

Un plan pour contenir l’essor de l’intelligence artificielle

Olivier Dessibourg/ Le Temps 5/2/15

(DR)

Des centaines de scientifiques, parmi lesquels des célébrités comme l’entrepreneur Elon Musk ou l’astrophysicien Stephen Hawking, et tout récemment Bill Gates, se disent inquiets des progrès récents et surtout à venir en intelligence artificielle. Ils ont tous signé une lettre ouverte proposant une feuille de route pour s’assurer que tout agent artificiel intelligent demeure toujours «robuste et bénéfique» pour l’homme

Ce message d’apocalypse fait toutefois réagir certains chercheurs du domaine. «Il nous détourne du débat sur… les problèmes sérieux» et actuels, dit à Wired Andrew Ng, ancien professeur d’IA à l’Université de Stanford, maintenant chez Baidu, le «Google chinois». Lui et d’autres dénoncent l’amalgame d’informations sur cet thème médiatiquement porteur et, sans minimiser les progrès, invitent à de la clairvoyance.

Il s’agit de distinguer deux types d’IA. Le premier, basique, «consiste à créer des systèmes dotés de capacités informatiques ou robotiques dépassant parfois celles de l’homme, mais ayant un but précis», dit Boi Faltings, professeur au Laboratoire d’IA de l’EPFL. Exemples? Robots guerriers, voitures autoguidées, algorithmes boursiers, systèmes de reconnaissance vocale ou visuelle perspicaces. Le type supérieur d’IA, dite «générale», évoque des entités capables, comme l’homme, d’effectuer des raisonnements conceptuels abstraits, ressentir des sentiments ou respecter des valeurs.

Densifier les recherches

Dans le premier cas, tous les spécialistes admettent que les craintes industrielles, légales ou philosophiques sont fondées. «La critique émise, et qui constitue le fondement de la lettre ouverte, est celle d’une dépendance déjà trop grande mais inévitable de l’homme aux systèmes informatiques», dit Boi Faltings. Et de mentionner les outils de gestion des stocks perfectionnés. Ou les agents militaires (drones, engins de terrain, etc.) de plus en plus autonomes. Sans parler, en usine, des lignes de robots remplaçant les cols bleus; de quoi faire dire à l’économiste Andrew McAfee que l’on entre dans le «second âge de la machine», après la révolution industrielle.

Les signataires de la lettre reconnaissent les bienfaits apportés par tous ces agents intelligents, mais enjoignent aussi à la société de s’assurer qu’ils n’induisent pas de dérives. Ils plaident ainsi pour que soient – enfin – abordées diverses questions sociales: les cas impliquant des voitures autoguidées peuvent-ils être considérés selon les lois actuelles, ou en nécessitent-ils de nouvelles? Les robots guerriers appliqueront-ils le droit humanitaire? Comment la capacité des systèmes d’IA à interpréter les données acquises avec des outils de surveillance cadre-t-elle avec le droit à la vie privée?

Dès lors, ils proposent un plan pour densifier certains domaines de la recherche en IA, en quatre axes: celui de méthodes de vérification (visant à montrer que le système créé satisfait à l’objectif prévu); celui de la validité (destiné à s’assurer qu’il ne peut pas dériver vers des comportements non désirés); celui de la sécurité (pour éviter toute manipulation par des tiers); et enfin celui du contrôle (qui doit permettre à l’homme de garder la main, quoi qu’il advienne, sur un système d’IA).

Emergence d’une conscience

Quid de l’avènement d’une super-intelligence qui serait l’égale de l’homme, voire le dépasserait? «Dans quelques décennies, ce sera un problème», assène Bill Gates. Nick Bostrom, philosophe et directeur duFuture of Humanity Institute à Oxford, abonde: faire face à cet événement «est le défi le plus important que l’humanité aura jamais à relever. Et – qu’on réussisse ou pas – ce sera probablement le dernier», confiait-il au Temps l’été passé. Que manque-t-il pour que l’essor d’une telle IA «consciente» se concrétise? «Une des étapes cruciales sera de développer une IA qui puisse contribuer à sa propre amélioration. Générer cette capacité nécessite le développement de logiciels qui dépassent pour l’heure l’ingéniosité de l’homme. Cela dit, il faut faire attention à ne pas trop anthropomorphiser toute forme de super-intelligence.»

Une piste pourrait-elle être celle du «deep learning», cette discipline inspirée du fonctionnement des réseaux de neurones selon laquelle un super-ordinateur se voit doté d’algorithmes lui permettant de puiser massivement dans des flux de données, de corréler celles qui l’«intéressent» et de se perfectionner? «Non, dit Boi Faltings. Le deep learning reste une affaire de classification, mais n’aboutira jamais à l’émergence d’une conscience.» Pour lui, le réel danger est plutôt que «des entreprises, comme Google, deviennent seules à maîtriser ce genre de technologies et que celles-ci deviennent un instrument de pouvoir».

De leur côté, les signataires de la lettre ouverte proposent malgré tout de prendre ce danger d’émergence en considération, et de lui appliquer le même plan de recherche qu’aux systèmes basiques d’AI. Une approche destinée à veiller à ce que toute AI, quelle qu’elle soit, reste «robuste et bénéfique» pour l’homme. Jusque-là, nombre de chercheurs en AI, Nick Bostrom en tête, se plaignaient de manquer de moyens financiers pour mener de telles études. Or Elon Musk vient de faire un don de 10 millions de dollars au Future of Life Institute pour les soutenir.

http://www.letemps.ch/Page/Uuid/fbff518c-ac93-11e4-8a14-18075d406251/Un_plan_pour_contenir_lessor_de_lintelligence_artificielle

6 réponses »

  1. Il faut arrêter de tout mélanger. Se n’est pas de L’IA mais uniquement de la programmation. D’ailleurs L’IA n’existe pas vraiment puisque pour cela il faudrait que les robots puissent changer les codages informatiques, créer de nouvelles fonctions et améliorer celle qui sont obsolètes. Hors cela n’existe pas encore ou peut être uniquement chez certain ingénieurs qui on suent modéliser cette approche neuronale. Tout aux plus les robots peuvent apprendre un nouveau mots ou un nouveaux concept mais cela n’est pas de l’IA mais uniquement du stockage d’information. S’apercevoir d’un défaut de fonctionnement et mettre en place une solution se n’est pas de l’intelligence chez un robot puisqu’il ne fait qu’exécuter une fonction de dépannage. Si la panne n’est pas recensé il ne pourra rien faire. L’intelligence c’est avant tout la capacité d’adaptation mais aussi d’innovation. Hors une robot comme un programme n’a pas a se jour la capacité de choisir lui même, il ne peut que reproduire se qui a été programmer.
    Cette tentative de tenter de faire croire que l’informatique a des super pouvoir n’est rien d’autre que de la propagande, modification du sens, spéculation. Pour que l’IA puisse voir le jours il est indispensable que se soit le code qui puisse être modifié par le robot. La robotique actuelle ne fait rien d’autre que d’automatiser des réponse déjà programmé en fonction des problèmes rencontré. Un robot qui parle ne fait rien d’autre que de d’analyser les mots entendus et de tenter de répondre en fonction des associations qui ont été déjà programmé. Mais a aucun moment se robot ne pourra répondre autre chose que se qu’il lui a été programmé. La notion d’apprentissage que beaucoup confondent avec l’intelligence n’a pour fonction que de pouvoir mémoriser de nouvelle réponse et non pas d’en créer lui même.
    Il ne faut pas tout confondre ni tout mélanger sinon on fini par ne plus rien comprendre. L’IA impose la compréhension et non le réflexe. L’informatique et la robotique actuel ne peut rien concevoir d’autre que le réflexe. La programmation neuronale impose une capacité de traitement bien au dessus de se que notre technologie actuel peut fournir. L’IA n’est rien d’autre qu’un mode réflexe. Par contre si un jour un petit génie trouvais le moyen de modéliser un programme permettent au robot de modifier son code et ses règles de programmation je pense qu’il faudrait alors s’inquiéter sérieusement sachant que cette option est possible a réaliser dans une approche de l’informatique neuronale. C’est n’est pas parce que l’on apprends beaucoup de chose que l’on devient intelligent. Si apprendre ne consiste qu’a savoir cela ne suffit pas. L’intelligence c’est la capacité a comprendre. Et il y a une énorme différence entre apprendre/savoir et comprendre.

  2. Isaac Asimov l’a très bien anticipé auteur de science fiction plus particulièrement accès sur la robotique et l’intelligence artificielle d’où les trois lois imaginés par l’auteur..

    Première Loi : « Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger. » ;
    Deuxième Loi : « Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi. » ;
    Troisième Loi : « Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la Première ou la Deuxième Loi. »

    Pour l’instant faute de trouver une énergie apportant une autonomie aux robots nos soldats ont encore de l’avenir !… mais pour combien de temps seul l’avenir nous le dira ….

  3. Article très intéressant qui insiste sur l’intérêt militaire pour les avancées de la robotique.
    – Pourquoi est-ce si important? Parce qu’une technologie ne peut-être utilisée dans un contexte militaire que si elle est totalement maîtrisée, dans son déploiement et ses objectifs (qu’ils soient létaux ou non). Les 4 axes sensés s’appliquer à l’I.A du premier type (vérification, validation, sécurité, contrôle) conviennent parfaitement aux militaires en faisant des robots des machines inconscientes et aux ordres. Le risque, c’est l’humain, car tout dépend de celui qui est aux commandes. A ce titre, il y a un contre sens énorme dans l’article: absolument tous les films de science fiction ne disent rien d’autre que cela: la machine n’est dangereuse qu’en tant qu’instrument d’un projet humain malveillant, qu’elle soit pilotée en direct ou programmée par une intelligence perverse (Runaway de Crichton, Saturn 3 de Donen, Terminator). Et c’est souvent une I.A du second type (i.e munie d’une conscience et d’un libre arbitre) qui permet de rétablir l’équilibre (Automata, I Robot, Ghost in the Shell, etc). La liberté vaut mieux que l’exécution d’ordres iniques.
    – Je note aussi une confusion entre la notion d’intelligence, de conscience, d’intensionnalité et d’autonomie. Ces concepts sont interdépendants mais sont bien différenciés:
    1) Un système expert peut résoudre des problèmes et faire preuve d’une certaine adaptabilité, mais il n’est pas conscient, et son autonomie se limite à son domaine d’intervention.
    2) Un être conscient peut avoir une intelligence très limitée et une autonomie physique réduite. La nature confère une intentionnalité très particulière aux êtres vivants (axée sur la survie). Rien n’obligerait un système conscient d’être doté de la même.
    3) Un virus informatique peut être malveillant (i.e avoir l’intentionnalité de son concepteur). Pourtant, il n’est ni intelligent, ni conscient, etc, etc…
    – Autre point important: on parle souvent de « conscience » au singulier. Mais il en existe probablement différents types et degrés. Un élément distinctif essentiel concerne la phénoménologie physique qui permet de rattacher un modèle conscient au réel. Tout cela reste à découvrir.

  4. mais si ! le robot peut générer lui-même du code nouveau! il y a 10/15 ans on appelait cela la « programmation génétique » par analogie avec la création/modification/sélection de gènes. Les bouts de codes obtenus étaient testés par le programme générateur ou un autre selon des critères adaptés aux buts visés et les meilleurs étaient retenus, puis réinjectés dans le processus. Les buts eux-mêmes pouvaient évoluer.

    La puissance informatique nécessaire n’était pas encore là, car comme dans la vie darwinienne, la plupart de ces mutations restaient inefficaces, il fallait trop de temps pour obtenir une amélioration sensible. Il reste des traces, par exemple dans PostgreSQL un logiciel de base de données.

    On a aussi évalué, avec succès dans certains domaines, la « programmation floue » qui représentait un certain fonctionnement du cerveau humain

    • Merci pour l’info je ne connaissais pas la programmation génétique. Mais cela ressemble beaucoup aux systèmes expert qu’a de l’intelligence. Certes la notion de générateur de codes semble être indispensable, c’est déjà pas mal. Mais cela implique de définir un systèmes pour chaque type de décision. Certes on pourra réussir a créer des robots pouvant solutionner beaucoup de problème. Mais l’intelligence impose qu’en cas de nouveau problème l’individu ou le robot puisse mettre en oeuvre un nouveau système de décision basé sur de nouveau critère d’analyse. Comment un système même très sophistiqué pourra faire pour décider des paramètres a prendre en compte ? Mais avec le temps l’homme sera surement capable de créer des système suffisamment puissants pour arriver a d’excellent résultat. Mais de là a parler d’intelligence je trouve que c’est pousser un peut loin. C’est la prise de décision qui me semble être a la source de non intelligence, c’est l’efficacité contre l’humanité qui pose problème.

  5. en fait tous ces gens ont peur de la nouveauté qui risque de les dépasser, ce qui est une réaction humaine typique, donc respectable.

    Au début du train, de respectables savants craignaient que les passagers ne soient asphyxiés dans les tunnels. On peut regarder le nucléaire ou le HFT boursier sous cet angle également.

Répondre à pedro.cAnnuler la réponse.