Les robots ne deviendront jamais des humains à part entière mais les dépasseront grâce à l’Intelligence artificielle.
Ces développements ne sont pas sans conséquence sur la responsabilité …
Alain Bensoussan aborde pour Planète Robots, les conséquences de l’Intelligence artificielle sur les règles de responsabilité traditionnelles et innovantes.
L’ordinateur Deep Blue d’IBM a battu le champion du monde d’échecs, Garry Kasparov, en 1997. Le programme Watson a battu les champions du jeu « Jeopardy » (jeu télévisé où les candidats doivent retrouver une question à partir des réponses) en 2011. En 2014, un ordinateur a réussi le test de Turing…
L’Intelligence artificielle, avant d’être un élément robotique, est avant tout le résultat d’un code élaboré par des programmeurs, qui aura défini les limites des capacités de sa création.
C’est un fait incontestable, les robots vont devenir meilleurs que les humains dans l’exécution des tâches qui demandent une capacité d’analyse de l’environnement. Et ce n’est pas tant l’Intelligence artificielle qui permet ce basculement que le perfectionnement des capteurs : les robots entendent, voient et sentent bien mieux que nous. De plus, comme les informations traitées par lesdits capteurs peuvent être croisées avec les données qui existent déjà — par le biais d’Internet ou des big data— les robots vont développer une capacité d’analyse gigantesque !
En ce qui concerne le problème de la responsabilité du robot, il convient d’adopter une approche pragmatique, à défaut d‘un cadre légal approprié. Une solution serait d’envisager la responsabilité du robot non comme un bloc, mais partagée par les différents intervenants et de façon hiérarchisée, pour aboutir à une responsabilité en cascade.
Cette approche permettrait de désigner des responsables, seulement au regard de leurs fonctions (…)
Alain Bensoussan, pour Planète Robots, « Les conséquences de l’IA sur la responsabilité », n°32 Mars-Avril 2015.