Robots tueurs, robots domestiques, même combat !

par | 2 octobre 2015 | Actualités, Blog, Éducation, Éthique, Internet, Robots

Si les « robots tueurs » inquiètent beaucoup d’entre nous, les robots domestiques, eux, rassurent. Ne nous promet-on pas qu’ils rendront d’immenses services, notamment dans le domaine de la santé et de l’éducation ? Hélas, beaucoup d’acteurs économiques et politiques attendent en même temps d’eux qu’ils relancent la croissance, autrement dit la course au profit. Et c’est bien là qu’il y a lieu de nous inquiéter. Les robots sont conçus par des informaticiens, mais ceux-ci obéissent aux injonctions économiques des industriels qui les emploient, dans le cadre des législations que les politiques adoptent… ou n’adoptent pas. Or dans ce domaine, il y a deux modèles inquiétants à ne pas suivre : l’automobile et l’Internet.

Des robots, mais pas comme des autos

Dans la seconde moitié du XXe siècle, l’automobile a été destinée à « tirer » l’économie. Du coup, son marché n’a été dominé que par deux préoccupations : flatter le désir de puissance et de vitesse des acheteurs, en général masculins ; et ignorer systématiquement toutes les formes de pollution qui aurait pu représenter des obstacles à son développement, avec les conséquences que nous connaissons sur le paysage urbain et le climat. Aujourd’hui, les robots présentés comme un vecteur majeur de la croissance nous font courir des risques exactement identiques. Nous n’aurons certainement pas des robots qui flatteront le désir de puissance de leur utilisateur, car cela n’est plus de mise aujourd’hui. Mais dans notre société minée par le délitement du lien social et la solitude, ce sont évidemment les attentes de compréhension et d’affection auxquelles les robots seront appelés à répondre. Ce projet a un nom : c’est l’empathie artificielle. Les robots de demain sauront non seulement nous écouter, déchiffrer nos intonations et nos mimiques, comprendre nos états d’âme et même nos états mentaux grâce à la connaissance qu’ils auront de nous par Internet. Ils pourront aussi nous répondre exactement ce que nous attendons, de la manière dont nous l’attendons, sans amour-propre ni esprit de préséance. Ces robots conçus comme des ersatz d’êtres humains seront à nos semblables ce que le Nutella est au chocolat : ce produit qui contient un peu de poudre de cacao et beaucoup d’autres substances aptes à flatter le palais est souvent préféré à l’original. De la même façon, des robots conçus avec ce zeste d’humanité qu’on appelle aujourd’hui l’empathie artificielle seront si bien programmés pour se rendre désirables que beaucoup d’entre nous risquent de les préférer à leurs semblables, ou au moins de devenir moins tolérants au caractère toujours imprévisible, et souvent déroutant, des relations humaines.

Des robots, mais pas des mouchards

De plus en plus d’utilisateurs des messageries et des moteurs de recherche gratuits s’inquiètent du risque d’espionnage généralisé qui en résulte. Les robots ne sont pas encore installés à domicile, mais nous savons déjà qu’il est très difficile à leurs usagers de penser à les débrancher tant ils leur donnent rapidement un rôle d’amis, de confidents, voire de conseiller. Dans une industrie naissante comme celle des robots dans laquelle la part de recherche est considérable, et où le prix de vente ne pourra pas être à la hauteur des investissements engagés, la tentation sera grande pour les fabricants de robots de s’octroyer un droit d’accès aux données de leurs utilisateurs. Cette posture sera d’autant plus facile à argumenter, et d’autant plus facilement acceptables par les usagers, que les risques associés à un bug d’un robot seront bien plus considérables que ceux associés au bug d’un logiciel installé sur notre ordinateur. C’est pourquoi les fabricants de robots doivent être d’ors et déjà soumis à une législation précise encadrant le recueil des données de chacun. Lorsque le patron de SoftBank a présenté à la presse le robot Pepper, dont il attend de vendre un exemplaire par famille japonaise dans les cinq ans qui viennent, il a tenu à préciser que « les données personnelles des utilisateurs ne seront pas stockées dans le Cloud »… Autant dire qu’il s’accorde le droit de les garder pour lui… Cela est d’autant plus préoccupant que le jour où nous serons entourés de robots, ils capteront nos faits et gestes à domicile vingt quatre heures sur vingt quatre.

D’indispensables pare-feux législatifs et éducatifs

Bref, il est essentiel que nous sachions anticiper l’arrivée des robots en nous posant les bonnes questions. La législation et l’éducation sont en effet toujours en retard sur la technologie, et souvent, les gens qui développent des technologies ne pensent pas aux implications légales et éthiques de leurs créations. Bien entendu, les fabricants se verront imposer des contraintes législatives en termes de respect de notre vie privée et de limites à leur usage comme support publicitaire. Mais Google, Apple ou Amazone ont plus d’un tour dans leur sac pour contourner les législations, surtout quand elles sont cantonnées à l’Europe. La solution pourrait bien se trouver plutôt dans la valorisation et l’encouragement de systèmes ouverts, dans l’apprentissage précoce, par tous les enfants, du langage de la programmation, et enfin dans la connaissance, par chaque citoyen, de la nature des programmes qui dirigeront les robots. De ce point de vue, le problème n’est guère différent pour un robot militaire et pour un robot domestique : pour l’un, combien de civils tués pour atteindre la cible principale sont-ils acceptables ? Et pour l’autre, selon quelles valeurs s’organisent les conseils de vie ou de consommation ? Le politique doit tirer la leçon d’un renoncement historique à encadrer l’industrie automobile. A défaut, il serait à craindre que l’apprentissage précoce du langage de la programmation soit le seul rempart qui protége demain nos enfants du risque d’être victime des programmes de concepteurs principalement attachés à des valeurs mercantiles. Mais là aussi, le politique, par l’intermédiaire du ministère de l’éducation nationale, a un rôle majeur à jouer : c’est peu dire qu’il est attendu.