Dans le numéro 46 de la revue PLANETE ROBOTS, Alain Bensoussan plaide pour une éthique des codeurs.
Pour Alain Bensoussan, il faut créer une éthique des codeurs. Les questions d’ordre éthique sont en effet majeures et les défis à relever immenses. Les codeurs écrivent l’avenir. Le monde de demain sera codé par ces derniers. Ont-ils des droits et des devoirs ?
De programmeurs, les codeurs sont devenus des créateurs de robots. De ce fait, il est naturel de se poser la question de leur responsabilité en cas de faute dans une ligne de code. Cela mérite une réflexion à travers quelques exemples de cas d’usage.
Ethique des codeurs et manipulation des émotions
Peut-on concevoir un système qui soit une sorte de « thermostat » permettant de conditionner des individus et de les mettre dans un état de bonheur ou de dépression? La réponse est affirmative. Des universitaires de Cornell et de l’université de Californie l’ont conçu en laboratoire 1 à partir d’un réseau.Il suffit de filtrer les informations grâce à un code qui permet de les sélectionner selon qu’elles sont positives ou négatives.
On s’est aperçu que peu à peu, ceux qui recevaient des informations négatives de l’ensemble des personnes avec qui elles interagissent, voient leur état émotionnel se modifier par « contagion émotionnelle ».
Peut-on coder ce type d’algorithmes? La réponse est également affirmative puisqu’un réseau social l’a expérimenté secrètement auprès de 689000 utilisateurs dont les flux de commentaires, de vidéos, d’images et de liens publiés ont été manipulés et triés pour influencer leur état émotionnel.
On savait les moteurs de recherche capables de détecter et de sélectionner les informations permettant d’identifier les bons profils à des fins commerciales grâce à des algorithmes toujours plus performants. Mais il s’agit ici de manipuler les émotions des individus et d’aboutir à un système de la pensée et des émotions en quelque sorte.
(…)
Alain Bensoussan, pour Planète Robots, « Plaidoyer pour une éthique des codeurs », n°46, Juillet-août. 2017.