L’erreur de Starwars : un robot isolé, ça n’existe pas

par | 16 décembre 2015 | Actualités, Blog, Éthique, Internet, Robots

Starwars nous trompe ! Nous y voyons des robots qui sont de vrais héros individualisés comme des êtres humains, alors qu’un robot isolé, ça n’existe pas ! Les robots de demain seront inter-communiquants en permanence, probablement par un autre réseau que celui d’Internet, et ils apprendront chacun de toutes les expériences de tous les autres. Cette situation est si difficile à penser pour un cerveau humain qu’aucun auteur de sciences fictions ne l’a anticipée, pas plus d’ailleurs que l’Internet et le téléphone mobile. Même dans la récente série suédoise Real Humans qui prétend faire le tour des problèmes liés au développement des robots, ceux-ci sont obligés de se donner rendez-vous dans des parkings souterrains pour pouvoir communiquer entre eux ! Plus ils nous ressembleront physiquement, comme ceux que fabrique déjà au Japon le roboticien Hiroshi Ishiguro, et plus nous aurons tendance à les croire semblables à nous, et plus nous oublierons leur interconnexion permanente. Si un robot dit « je », ce sera le choix de son programmeur de le faire parler ainsi, et ce choix sera destiné à faire croire à son utilisateur que sa machine est unique. Les robots devraient au contraire être programmés pour dire toujours « nous », d’autant plus que s’ils sont doués un jour de conscience, celle-ci sera collective.

Le déni de l’interconnexion

L’idée de robots interconnectés, ou si on préfère intercommuniquants, c’est-à-dire communicants entre eux par un réseau distinct de celui d’Internet, et trop terrifiante pour que nous puissions l’affronter. Mais c’est bien pourtant la que se trouve le défi principal posé à l’être humain par le développement des robots. Ils vont en effet très vite être capables d’apprendre par imitation, c’est-à-dire par observation du comportement humain, et leur interconnexion leur permettra de faire bénéficier de leurs apprentissages l’ensemble de leurs collègues. Un robot pourra apprendre à faire des pancakes en observant son propriétaire les faire, mais tout aussi bien à fabriquer des explosifs ou à nettoyer une arme automatique. Et dans les secondes qui auront suivi, tous les robots du même modèle et de la même marque pourront bénéficier de cet apprentissage.
Avec eux, l’homme n’aura pas affaire à une nouvelle créature qui s’ajouterait au règne végétal, animal et humain. Il aura affaire à une communauté dont il sera difficile de différencier les éléments dans la mesure où l’apprentissage de chacun d’entre eux sera versé à un serveur distant dans lequel chacun d’entre eux puisera à tout moment, sous forme d’algorithmes, les compétences dont il aura besoin pour faire face à des situations nouvelles. Le robot qui commettra à un moment donné un acte délictueux pourra n’être que celui qui se sera trouvé le premier dans une situation susceptible de mobiliser un apprentissage en réalité disponible à tous.
C’est pourquoi nous devons renoncer à penser les robots comme des créatures auxquelles il faudrait prévoir d’accorder un certain nombre de droits et de devoirs. Si nous engageons sur cette voie, ce n’est pas à chaque robot qu’il faut accorder cette personnalité juridique, sur le modèle de ce qui existe pour les êtres humains ou les animaux, mais à leur communauté. Tel est bien en effet l’absolu originalité de la robotique portée aujourd’hui par Internet. Un robot isolé, ça n’existe pas. Le sujet de la robotique, c’est la communauté de robots.

Implémenter des logiciels éthiques dès la conception des robots

Le problème, bien sûr, n’en est pas simplifié pour autant. Qui va réguler cette communauté ? Qui va verrouiller les apprentissages potentiellement dangereux de certains de ses membres, susceptibles de diffuser à la communauté entière ?
Une première solution serait d’implémenter chez les robots des logiciels éthiques dès le moment de leur fabrication,. Cette précaution reviendrait un peu à renouer avec la logique des fameuses lois d’Asimov qui prévoyaient, selon une gradation progressive, qu’un robot ne devait pas mettre en danger un être humain, ni lui désobéir, ni attenter à sa propre intégrité. Si la première des ces trois lois ne fait de doute pour personne, pour ce qui concerne les robots civils au moins, les progrès de la robotique ont montrés que la seconde et la troisième posaient plus de problèmes. Mais ces logiciels éthiques rencontrent une autre difficulté. Il serait évidemment conçus en fonction des repères moraux de leur fabricant, or la morale est quelque chose qui varie beaucoup d’un pays à un autre, quand ce n’est pas d’une période à une autre. Des logiciels éthiques conçus dans la Silicon Valley ne correspondraient pas forcément aux traditions africaines, et il serait facile d’en contester rapidement la validité en les présentant comme des avatars du néocolonialisme ! En outre, cette option s’opposerait évidemment complètement à la possibilité de robots en Open source.

Un Facebook des robots

Il existe une seconde option. De la même manière que la majorité des enfants vivent avec des parents bienveillants qui leur inculquent les valeurs positives de la société dans laquelle ils grandissent, il est probable que la majorité des robots domestiques seront installés dans des familles qui auront à cœur de leur communiquer ces mêmes valeurs. Mais majorité ne veut pas dire totalité. Pour ce qui concerne les enfants, il existe un correctif : ils fréquentent l’école, de telle façon que leurs apprentissages s’ordonnent finalement autour des valeurs dominantes de la société, et pas seulement autour de celles de leurs parents. Comment créer l’équivalent pour les robots? La seule solution pourrait bien être l’existence d’une communauté de robots. Ainsi pourraient-ils s’auto-réguler entre eux bien mieux que ne pourrait le faire pour eux une instance de supervision générale. Parmi tous les apprentissages réalisés par les robots d’un même pays, voire d’un territoire plus large encore, seuls les apprentissages statistiquement les plus fréquents seraient validés par la communauté des robots. Le problème est qu’un tel système empêcherait en même temps les robots de pouvoir bénéficier des innovations les plus imprévisibles de certains d’entre eux. Il faudrait donc que parmi les apprentissages rejetés, un tri soit opéré (par des humains ou les robots eux-mêmes ?) entre ceux susceptibles d’apporter une innovation positive à la communauté des robots, et donc à la communauté humaine, et ceux qui ne devraient pas être généralisés.

Ces deux options (une régulation a priori, ou bien un réseau social de robots) ne sont pas exclusives l’une de l’autre. L’essentiel est de commencer à réfléchir dès aujourd’hui à ce qui serait l’équivalent, chez les robots, d’une conscience morale construite sur les mêmes bases que celles qui ont permis aux hommes de s’organiser collectivement : à savoir l’encouragement et la généralisation des comportements qui permettent de mieux vivre ensemble, et la dissuasion, voir l’interdiction, des comportements qui l’entravent.