Après Internet qui nous rendrait bête, voici les assistants vocaux qui nous rendraient brutaux ! Ou plutôt, s’il faut accorder foi aux inquiétudes qui se manifestent sur le Net, qui rendraient brutaux nos enfants. Après l’enfant roi, qui a hélas triomphé dans beaucoup de familles si on en croit la difficulté de nombreux parents à limiter le temps d’écrans de leurs rejetons, voici l’enfant dictateur. Il ne se contente plus d’exiger, mais le fait sans ménager la susceptibilité de son interlocuteur. Le responsable serait les chatbots, ces nouveaux robots conversationnels appelées à prendre de plus en plus d’importance dans nos vies.
Un faux problème qui en cache un vrai
Fini les interfaces graphiques, voici venu le temps des interfaces vocales. Siri, Cortona, Alexa et Google Home en sont les premiers prototypes. Faut-il alors éduquer nos enfants à être poli avec eux, ou bien au contraire les laisser parler à ces machines comme s’ils s’adressaient à leur poupée ou à leur cheval de bois ? Pour ma part, je suis plutôt pour laisser les enfants explorer la réactivité des robots sans leur mettre aucun frein moral. En prenant soin de leur dire à chaque fois, s’ils étaient tentés de nous parler de la même façon : « C’est comme ça que tu parles à ta machine, mais ce n’est pas comme ça que tu me parles à moi ! » Après tout, nous sommes déjà obligés de faire cela avec nos enfants quand ils sont tentés, après une journée d’école, de nous parler comme ils le font avec leurs camarades dans la cour de récréation.
Mais prenons les choses autrement. Ce faux débat risque bien, si on n’y prend pas garde, de devenir l’arbre qui cache la forêt. Une forêt particulièrement touffue, entendez par là riche de questions qui ne concernent pas que les enfants. Un exemple ? Il parait que les utilisateurs allemands de GPS seraient gênés qu’une voix féminine leur indique quelle direction prendre…
Jamais sans mon chatbot
Le vrai problème est que ces assistants vocaux, soigneusement manipulés par les informaticiens pour nous être toujours agréables, vont aussi modifier l’idée que nous nous faisons d’une relation. Leur rôle se réduit aujourd’hui à des demandes auxquelles ils sont censés apporter la meilleure réponse, agrémentée de quelques plaisanteries ciselées sur mesure par des algorithmes qui nous connaîtront de mieux en mieux : c’est ce que certains informaticiens, emportés par leur zèle anthropomorphe, appellent sans rire « l’humour machine », alors que le robot ne fait que chercher la bonne réponse préprogrammée dans sa mémoire centrale. Et demain ? Ces machines nous proposeront des échanges toujours plus calibrés sur nos attentes, estimées en fonction de nos échanges passés. Le risque sera de finir par penser toute relation sur le modèle d’un échange consensuel. Il n’y aura plus de place pour se raconter pour le seul plaisir de se découvrir en se racontant, et point de plaisir non plus à écouter l’autre se raconter, puisque ces machines se contenteront de recombiner les informations que leurs programmeurs y auront déposées et de les mettre en lien avec nos attentes supposées.
Savoir à qui l’on parle
Mais la question de la politesse vis-à-vis des chatbots risque d’apparaître rapidement comme un faux problème tout simplement parce que nous ne saurons bientôt plus à qui nous avons affaire. Certains des services que nous sommes amenés à attendre aujourd’hui d’êtres humains sont en effet déjà assurés par des robots sans même que nous en soyons informés. En 2015, les utilisateurs du site de rencontres adultères Ashley Madison ont découvert que les conversations érotiques qu’ils pensaient avoir avec des femmes mariées étaient fabriquées en grande majorité par des chatbots féminins. Plus de soixante-dix mille chatbots féminins animés de faux profils incitaient les utilisateurs à acheter de nouveaux crédits pour continuer à dialoguer. Plus de onze millions d’hommes auraient ainsi été en contact avec ces automates sans le savoir et en croyant avoir affaire à de véritables femmes[1].
Plus banalement, nous saurons bientôt de moins en moins, quand nous appellerons une banque ou une administration, si notre interlocuteur est un humain ou bien une IA. Les chatbots seront en effet capables de répondre exactement comme un humain à la plupart des questions. Et lorsque l’une de ces machines se trouvera mise en relation avec une autre sans en être informée, les deux robots se reconnaîtront-ils ? Négocieront-ils le service demandé d’une autre façon que s’il s’agissait de deux humains, ou bien d’un humain et d’un robot ?
En tous cas, je plaide pour que soit reconnu le droit des humains à savoir à quel moment ils interagissent avec un autre humain, et à quel moment ils interagissent avec une machine. La nature de notre interlocuteur est déterminante pour le statut qu’il convient de lui donner et le type de relations qu’il convient par contrecoup d’avoir avec lui. Nos enfants vivront dans un monde où il leur faudra gérer la différence qui existera encore longtemps entre l’homme et la machine, et plus ils apprendront tôt à faire cette différence, mieux cela vaudra. Ne créons pas de la confusion dans leur esprit en leur demandant d’être polis avec les machines. Cela compliquerait en plus singulièrement la liberté qu’ils devront prendre de les démonter et de les programmer autrement. Mais ne lâchons rien sur les règles de la politesse quand ils nous parlent, et bien entendu aussi quand nous leur parlons.