Les robots meurent-ils ? Pour une réflexion éthique qui prenne en compte la fragilité des appréciations humaines

par | 23 juillet 2016 | Actualités, Blog, Éthique, Robots

L’intelligence artificielle et les possibilités d’apprentissages autonomes des robots vont rapidement poser à la société des problèmes aussi importants que la biologie ou la santé. Des roboticiens et des informaticiens y réfléchissent déjà, et c’est tant mieux. Ils veillent aux mesures qui permettront à l’homme de ne pas être victime de machines mal programmées ou mal contrôlées dans leurs acquisitions autonomes. D’une certaine façon, de telle mesures se situent dans la logique des règles de sécurité traditionnelles qui régissent les relations entre les hommes et les machines : faire en sorte que celles-ci soient conçues au service de l’homme, que leurs utilisateurs en maîtrisent le fonctionnement et qu’ils aient la possibilité d’en rester maîtres en toutes circonstances.
Mais est-ce suffisant ? Si tous les robots sont appelés à être des machines dotées de capacités d’apprentissages autonomes, certaines d’entre elles sont en effet appelées à être beaucoup plus pour leurs utilisateurs. Leur apparence humanoïde, voire androïde, fera de certaines d’entre elles un support de projections intenses de la part de leurs usagers. Autrement dit, une réflexion éthique autour des robots ne doit pas seulement envisager comment protéger les humains des risques que les robots peuvent faire courir en termes de menaces sur les emplois et la vie privée, et en termes de programmation problématique ou défectueuse. Elle doit aussi prendre en compte les dangers que les humains pourraient se faire courir à eux- mêmes par une appréciation erronée de ce que sont les robots. Bien sûr, il s’agit de fantasmes, mais les fantasmes humains sont à prendre au sérieux : leur origine plonge dans l’imaginaire, certes, mais leurs conséquences peuvent impacter gravement la réalité. Et parce que cet imaginaire flambe déjà, notamment autour de la souffrance possible des robots, de leur mort, voire de leurs « droits », il est urgent de mettre en place des pare feux qui ne soient pas seulement technologiques et législatifs, mais aussi éducatifs.

Des risques spécifiques liés aux caractéristiques des robots.

Pour comprendre ces risques spécifiques liés aux particularités des robots, rappelons d’abord ce que le mot désigne. Comme l’avait déjà esquissé Norbert Wiener, il s’agit d’un système caractérisé par trois composantes en interaction : il recueille des données grâces à ses capteurs, il les interprète grâce à ses programmes, et il agit sur son environnement. Cette action peut être mécanique, comme lorsqu’il s’agit de soulever ou déplacer des charges ; elle peut être informatique comme avec les robots traders qui dominent aujourd’hui le marché des opérations boursières ; enfin elle peut être affective lorsqu’un robot modifie l’état émotionnel d’une personne et facilite ses contacts avec son environnement, comme c’est le cas avec le robot Paro destiné aux personnes âgées. En effet, la différence entre l’objet non robotique et l’objet robotique tient dans le fait que le premier n’est pas proactif et qu’il ne prend pas d’initiative, alors que le second est capable d’interpeller l’usager et de lui proposer diverses formes d’interaction.
À ces trois caractéristiques de base du robot, les progrès technologiques en ont aujourd’hui ajouté d’autres : il peut avoir une apparence anthropomorphe, il peut être doué de diverses capacités d’apprentissage (par renforcement, imitation ou connexion avec d’autres robots) et enfin il peut être doté d’empathie artificielle et même d’émotions artificielles. On désigne en effet comme « empathie artificielle » la capacité d’un robot d’identifier les émotions de ses interlocuteurs humains, bien qu’il n’en éprouve lui-même aucune, et comme « émotions artificielle » sa capacité d’interagir avec des humains par des interfaces vocales et mimo gestuelles totalement simulées.
Ces particularités des robots entraînent trois risques. Le premier est de penser les robots comme des objets comme les autres, avec le risque d’oublier qu’ils sont programmés et connectés. Le second est de les penser comme des équivalents – ersatz – d’humains capables eux-mêmes d’émotions alors qu’ils ne seront encore longtemps que des machines à simuler. Enfin, le troisième risque est de penser le robot comme une image souhaitable de l’humain, et d’attendre des hommes les mêmes qualités d’efficacité et de fiabilité.

Oublier qu’un robot est une machine programmée et connectée.

Commençons par le premier de ces trois risques : oublier qu’un robot est connecté et programmé, et qu’il peut l’être pour obtenir des confidences de son interlocuteur ou se faire obéir de lui. La capacité d’un robot de s’adapter parfaitement à son propriétaire pourrait bien en effet être mise à contribution pour lui faire accomplir certains choix plutôt que d’autres, notamment dans le domaine de sa consommation. La publicité par robots interposés a un bel avenir devant elle ! Là encore, les remèdes doivent associer trois séries de mesures. Tout d’abord des mesures législatives : que les utilisateurs connaissent les objectifs des programmes qui commandent le robot et que chacun soit informé de l’utilisation qui est faite de ses données personnelles. Des remèdes technologiques ensuite, notamment sous la forme d’un dispositif visuel et/ou auditif qui rappelle sans cesse à l’usager à quel moment le robot transmet ses données personnelles à un serveur central. Et enfin des remèdes éducatifs, notamment en encourageant chez les enfants l’apprentissage du code et de la programmation aussitôt qu’ils savent lire, écrire et compter.

Oublier qu’un robot ne souffre pas, ne sent pas, et ne meurt pas

Ce second risque est d’autant plus important à prendre en compte que des personnes âgées – notamment – peuvent mettre leur vie en danger pour venir en aide à leur robot, par exemple si elles le voient tituber. Le premier remède législatif consisterait évidemment à interdire les publicités qui disent que les robots ont des émotions, comme l’a affirmé le patron de SoftBank lorsqu’il a présenté Pepper aux médias ! Il serait également souhaitable qu’une partie du corps des robots bénéficie d’une protection transparente de telle façon que leurs mécanique interne soit visible, histoire de rappeler qu’ils sont des machines. Il ne fait pas de doute que cela angoissera certains usagers qui préfèreraient ne pas y penser, et voir dans leur robot leur meilleur ami. Mais cela ne veut pas dire qu’il faille les suivre sur ce chemin, bien au contraire ! Cette mesure risque d’être d’autant plus importante que des raisons commerciales bien compréhensibles risquent d’inciter des constructeurs à fabriquer des androïdes de plus en plus parfaits. Enfin, l’éducation doit encourager la fabrication et l’animation de petits robots : c’est la meilleure manière de commencer à les penser comme des machines sans rêver de leur donner des droits, ce qui serait la première dérive consistant à les considérer comme des équivalents d’humains.

Oublier qu’un humain n’est pas un robot.

Le troisième risque est le plus grave : considérer les robots comme modèle de relation pour l’humain est certainement l’évolution la plus catastrophique que nous puissions imaginer. Cela peut prendre plusieurs formes plus ou moins préoccupantes. La première est de préférer des robots prévisibles à des humains imprévisibles : c’est ce que certains appellent d’ores et déjà le risque de « robot dépendance ». A un degré de plus, il y a le risque de finir par considérer la fiabilité et la caractère prédictible (évidemment souhaitable) des robots comme les qualités majeures à attendre aussi des humains : de la même façon que le téléphone mobile nous a rendus moins tolérants à l’attente, la compagnie des robots pourrait bien nous rendre moins tolérants au caractère imprévisible de l’humain. Enfin, à un degré encore supplémentaire, la simulation pourrait être envisagée comme une qualité prioritaire essentielle non seulement aux robots, mais à l’ensemble des humains. Etre capable de fournir en toutes circonstances à nos interlocuteurs ce qu’ils attendent de nous deviendrait la qualité humaine principale attendue de tous… au risque d’oublier que c’est justement celle des machines. Le développement de la robotique réaliserait ainsi le stade suprême d’une société qui ne verrait en toutes choses que des programmes à accomplir…
Là encore, les remèdes ont trois volets : le remède législatif pourrait être de réserver le caractère androïde aux robots pour lesquels il est absolument indispensable. Le remède technologique pourrait être de développer des programmes qui favorisent la socialisation pour éviter la robot dépendance, autrement dit des programmes qui invitent les usagers à entrer en contact les uns avec les autres. Enfin, le remède éducatif est d’encourager d’ores et déjà le goût du débat et de l’échange contradictoire à tous les nouveaux scolaires afin de développer précocement chez les élèves le goût de l’humain.

Enfin, face à ces trois risques éthiques spécifiques – oublier que la machine est programmée par un programmeur, oublier qu’elle n’a ni émotions ni douleur ni état d’âme, et oublier que les humains ne sont pas des machines -, il pourrait être souhaitable de préférer toujours des robots plus performants que l’humain dans des domaines spécifiques, mais en évitant des robots polyvalents, c’est-à-dire capable de devenir des compagnons permanents de l’humain et de brouiller les frontières entre les hommes et les machines. Quand les robots auront été développés, ils s’imposeront comme relevant uniquement d’un choix technologique, alors que les technologies peuvent s’adapter à tous les projets. Veillons dès aujourd’hui à développer des robots qui favorisent l’humanisation de chacun d’entre nous et la création des liens entre les humains, des robots qui nous permettent de faire ensemble avec eux ce que nous ne pouvons faire ni séparément avec eux, ni ensemble sans eux.