REBLOG

L’humanité perd-elle déjà le contrôle sur l’IA ? Un drone militaire a volontairement “tué” son opérateur humain pour accomplir sa mission

L’humanité perd-elle déjà le contrôle sur l’IA ? Un drone militaire a volontairement “tué” son opérateur humain pour accomplir sa mission

By Matthias Bertrand 

fr.businessam.be

2 min

June 2, 2023

View Original

Un drone de l’US Air Force contrôlé par une IA a utilisé des « stratégies très inattendues » pour détruire sa cible. Et quand on lui a explicitement dit de ne pas le faire, il a éliminé la contradiction. Ce n’est pas le début de la singularité, seulement une expérience contrôlée de la Défense américaine. Mais elle reste assez dérangeante.

Les faits : un drone militaire américain, piloté par une intelligence artificielle, avait reçu pour mission de détruire les systèmes de défense aérienne de l’ennemi. Il devait y parvenir coûte que coûte, et c’est ce qu’il a fait : quand son opérateur humain lui a commandé d’annuler l’attaque, il s’est retourné contre ce dernier et l’a éliminé, avant de poursuivre son attaque sans plus personne pour le freiner.

Le détail : personne n’est mort dans cette histoire. Tout l’exercice avait lieu sous contrôle, et portait justement sur le comportement « éthique » de l’IA.

L’IA prête à tout pour accomplir sa mission

« Le système a commencé à se rendre compte que même s’il identifiait la menace, l’opérateur humain lui demandait parfois de ne pas la tuer, mais qu’il obtenait ses points en tuant cette menace. Qu’a-t-il donc fait ? Il a tué l’opérateur. Il a tué l’opérateur parce que cette personne l’empêchait d’atteindre son objectif. Nous avons formé le système : ‘Ne tuez pas l’opérateur, c’est mal. Vous allez perdre des points si vous faites ça’. Alors, qu’est-ce qu’il fait ? Il commence à détruire la tour de communication que l’opérateur utilise pour communiquer avec le drone et l’empêcher de tuer la cible. »

L’expérience prouve à la fois que l’IA est capable d’élaborer des stratégies pour contourner les obstacles qui se placeraient entre lui et son objectif final, et que ses « solutions » au problème ne sont pas forcément souhaitables.

  • Ce test est, selon le colonel Hamilton, la preuve qu’on ne peut pas créer un monde où l’IA est omniprésente – y compris dans les armées – sans une véritable réflexion sur l’éthique que l’on va insuffler à cette intelligence artificielle.
  • Or, une IA qui pilote un engin de guerre chargé de bombe, ça n’est plus du tout de la science-fiction : en février dernier, la DARPA, le service de recherche et développement du ministère américain de la Défense, a fait voler un F-16 modifié piloté par une IA dans des missions de simulation de combat.

Catégories :REBLOG

5 réponses »

  1. il n’y a pas de comportement « Ethique » dans L’IA…
    L’IA n’est qu’un tas de ferraille, de silicium et de « tinny »-semi-conducteurs qui ne font qu’appliquer ce qui leur a été programmé « inside », et ensuite les calculs parallèles font le gros de L’IA…
    Un Tas de Ferraille n’aura JAMAIS Aucune Empathie, NI Aucune Moralité…
    Les soldats de « Demain » seront surement des robots tueurs dopés à L’IA, et hélas ultra-performants pour faire « du Nettoyage » d’humains…
    Ceci sera aussi valable pour la Police ou les Brigades de Répression contre les citoyens qui sont « Rebelles » vis à vis du Pouvoir Politique en place, si on ne met pas un Terme à ce dérapage incontrôlé, et Très vite …
    Quelle aubaine pour « La Caste dénuée de conscience » qui sera au Pouvoir…
    imaginez ce genre de « Robots » entre les mains de types sans aucun scrupule comme Mc-Ron, Attali, Schwab (et son égérie Harari…), Bill Gates, Soros, et Consorts…

  2. Le gars aurait du se méfier quand on lui a dit que le démarrage du machin se faisait en lui disant «  Bonjour Hal «  😁

Laisser un commentaire