L’adolescent abîmé par l’exposition télévisuelle précoce : la preuve (publié dans le Huffington le 14 sept 2016)

Posté par Serge TISSERON le 20 septembre 2016.

Regarder la télévision est un passe-temps commun à beaucoup d’enfants, y compris avant 3 ans, et beaucoup de parents ont tendance à sous-estimer l’importance de cette consommation précoce. Ses conséquences sont pourtant mesurables à l’adolescence, et elles sont très problématiques. C’est ce que montre la dernière étude publiée par l’équipe de Linda Pagani, professeur à l’Université de l’École de psychoéducation de Montréal (1).

Une étude longitudinale unique

Linda Pagani a débuté son étude sur les effets de la consommation télévisuelle précoce en 1997/1998. En 2010, elle a montré que chez les enfants en âge de débuter la marche et passant plus de deux heures par jour devant le petit écran, il existe à 10 ans un risque d’obésité accrue, une baisse de l’intérêt en classe et une diminution des habiletés mathématiques (2). Les enfants étaient globalement moins autonomes, moins persévérants et moins habiles socialement. En outre, une consommation télévisuelle importante augmentait le risque d’être constitué en victime ou en bouc émissaire par les camarades de classe.
Elle vient de donner une suite à cette étude en mesurant les conséquences de cette consommation précoce sur les mêmes enfants âgés maintenant de 13 ans, en se centrant sur les compétences sociales. Pour cela, elle a évalué leurs difficultés relationnelles auto déclarées dans quatre domaines : la tendance à la victimisation, l’isolement social, la tendance à des agressions proactives et les comportements antisociaux. Elle a ensuite croisé ces données avec le temps de consommation télévisuelle précoce, en éliminant de nombreux facteurs de confusion possibles tels que le milieu social.

Des enfants plus portés à l’isolement et au comportement antisocial

Son étude montre que le fait d’avoir eu une consommation télévisuelle importante à l’âge de deux ans et demi accroît, à 13 ans, le risque de victimisation et d’isolement social, et favorise l’adoption d’un comportement violent et antisocial envers les autres élèves. « Les enfants qui ont regardé beaucoup de télévision en grandissant sont plus susceptibles de préférer la solitude, l’expérience de victimisation par les pairs, et d’adopter un comportement agressif et antisocial envers leurs pairs à la fin de la première année de collège ». L’ensemble de ces facteurs expose à des risques supplémentaires de perte de valeur sociale.
Mais comment expliquer ces effets ? Par le fait que la petite enfance constitue un moment particulièrement critique dans le développement des zones du cerveau impliquées dans l’autorégulation de l’intelligence émotionnelle. D’autant plus que dans la petite enfance, le nombre d’heures de veille dans une journée est limitée. Ainsi, plus les enfants passent de temps devant la télévision, moins ils en ont pour le jeu créatif, des activités interactives, et d’autres expériences cognitives sociales fondamentales. Des compétences telles que le partage, l’appréciation et le respect des autres semblent en effet être des acquisitions enracinées dans la petite enfance. Une vie quotidienne active et interactive à l’âge préscolaire aide à développer les compétences sociales essentielles qui seront utiles plus tard, et joue un rôle clé dans la réussite personnelle, sociale et même économique. L’adolescent antisocial qui fuit la relation pour se réfugier dans des pratiques d’écran répétitives et stériles est moins coupable d’abus que bien souvent victime d’une immersion trop précoce et trop massive dans la télévision.

Une indispensable campagne de prévention

Espérons que cette alerte sera entendue. La campagne d’affiches et de conférences intitulées « 3/6/9/12, apprivoiser les écrans et grandir » lancée en 2008 a besoin d’être largement relayée. Les pédiatres et les médecins généralistes ont un rôle majeur à jouer dans cet effort de prévention. Ils ont la confiance des parents et ils peuvent être de puissants relais éducatifs. Il suffirait pour cela qu’ils prennent l’habitude de demander, lors de chaque consultation, combien de temps l’enfant passe à regarder la télévision, et si elle est dans sa chambre, puis prendre quelques minutes pour expliquer aux parents les bienfaits pour l’enfant d’une vie familiale dans laquelle on se parle et où on joue ensemble. Une inscription de consignes de modération sur le carnet de santé serait également bienvenue, ainsi qu’une campagne de l’Institut National pour l’Education à la Santé (INPES).
À oublier que les écrans sont un problème de santé publique dès la naissance, nous risquons de laisser s’installer des situations bien plus difficiles à gérer au moment de l’adolescence.

(1) L. S. Pagani, F. Lévesque-Seck and C. Fitzpatrick, “Prospective associations between televiewing at toddlerhood and later self-reported social impairment at middle school in a Canadian longitudinal cohort born in 1997/1998”, Psychological Medicine, Page 1 of 9. © Cambridge University Press, 2016.
(2) L.S. Pagani, C. Fitzpatrick, A.B. Tracie, A. Dubow, “Prospective associations between early childhood television exposure and academic,psychosocial, and physical well-being by middle childhood”, Archives of Pediatrics and Adolescent Medicine, 2010.

Refuser aux terroristes le droit d’être nommés par leur nom, c’est leur dénier la qualité d’êtres humains (publié dans Huffington Post le 2 août)

Posté par Serge TISSERON le 21 août 2016.

Mieux vaut tard que jamais. Après avoir largement diffusé le portrait des terroristes du 11 janvier et du 13 novembre 2015 (y compris le journal Le Monde avec la publication en première page d’un portrait de Amedy Coulibali en tunique blanche de martyr avec Coran et Kalachnikov), les médias s’aperçoivent de la formidable publicité que constitue cette diffusion. Pourtant, nous devrions le savoir. En son temps, la fameuse « affiche rouge » censée stigmatiser les premiers résistants au nazisme en affichant partout leurs visages a au contraire exalté l’esprit de résistance. Et au Liban, les portraits des « martyrs » sont partout affichés comme d’indispensables rappels de leurs faits d’armes. On ne peut donc que se réjouir de cette décision.
En revanche, il y aurait à mon avis un grand danger à appliquer la même réserve à la publication du nom des terroristes. Car la représentation visuelle du visage et le principe de nomination obéissent à deux logiques différentes.

Le nom institue l’affiliation au genre humain

Tout au long de la vie, l’apparence de chacun ne cesse pas d’évoluer, et il est possible à chacun de la modifier en se laissant pousser la moustache ou la barbe, en coupant ses cheveux, en changeant de coiffure ou de maquillage, etc. Au contraire, le nom est établi sur la base d’un contrat social et son changement nécessite une autorisation des pouvoirs en place, comme le montrent les démarches administratives que doivent accomplir ceux qui décident de changer de nom. Chaque culture attribue les patronymes selon une logique particulière de telle façon qu’avoir un prénom et un nom rend possible à chacun d’être nommé comme sujet par les autres, et par contre coup de se nommer soi-même comme sujet. « Comment tu t’appelles ? » est d’ailleurs la première question qu’un enfant pose à un autre. Chacun peut bien sûr décider de donner un nom à son animal domestique, mais celui-ci ne fait pas l’objet d’un contrat social homologué par un tiers comme le nom d’un humain. Et chacun peut renoncer à l’enregistrement et à la diffusion de son image, mais personne ne peut renoncer à son nom.

Le processus de déshumanisation s’attaque d’abord au nom

Le lien qui unit nomination et humanisation explique pourquoi les systèmes totalitaires commencent toujours par déshumaniser leurs opposants en leur niant la possibilité d’un nom. Ceux qui doivent être exterminés ne sont plus désignés comme des humains, avec leur prénom et leur nom, mais regroupés sous un intitulé générique qui leur dénie la qualité d’êtres humains. Les juifs sont devenus les « poux » sous le troisième Reich, les opposants supposés au despotisme cambodgien étaient désignés comme « matériel » avant d’être exécutés, et au Rwanda, la Radio des 1000 collines a attisé la haine des Hutus contre les Tutsis en traitant pendant des années ceux-ci de « cancrelats ». Les nazis se sont d’ailleurs moins employés à faire disparaître l’image des Juifs – qu’ils filmaient et photographiaient – que leurs noms, allant pour cela jusqu’à détruire les pierres tombales de leurs cimetières. La négation du nom de la victime vise à prévenir tout sentiment empathique à son égard et permettre l’exercice d’une violence absolue. Refuser d’appeler quelqu’un par son nom constitue l’étape première du processus de désaffiliation du monde commun. Le tortionnaire doit cesser de penser l’autre comme un humain et pour cela lui dénier la possibilité d’un nom. Le nom n’est en effet pas seulement ce par quoi chacun s’identifie et se reconnaît lui-même, comme peut l’être aussi l’image de soi dans le miroir. C’est également ce qui lui est adressé par un autrui qui l’interpelle. Par le fait du nom, comme l’a montré Paul Ricoeur, chacun est introduit dans un échange intersubjectif avec les autres. La nomination est la clé qui ouvre la possibilité de la reconnaissance mutuelle. Et le refus de la nomination ouvre à son contraire, l’espace de la déshumanisation.

Un double danger

Bien sûr, on peut penser qu’il n’y a aucune raison d’éprouver quelque empathie que ce soit pour les terroristes. Mais outre le principe très discutable, si on se place dans la logique de notre culture humaniste, de déshumaniser les terroristes par la privation de leur nom, une telle décision risquerait d’avoir deux conséquences graves. Tout d’abord, si nous voulons combattre efficacement notre ennemi, il me parait essentiel que nous le reconnaissions. Nous habituer à regrouper ceux qui commettent des actes cruels et sanguinaires contre des civils sous le nom générique de « terroristes » serait à terme nous priver de nous donner les moyens de comprendre la variété de leurs parcours et la complexité de leurs motivations, et de pouvoir imaginer les moyens les plus adaptés à notre défense.
Et ensuite, une telle décision risquerait d’aggraver le sentiment d’exclusion de ceux qui, sans pour autant se sentir prêts à un passage à l’acte violent, peuvent comprendre l’amertume et la haine des terroristes. Tous ceux qui sont persuadés d’être irrémédiablement marginalisés par un système politique et social qui ne leur laisse aucune place, ne pourraient que vivre comme un affront suprême cette décision des médias, vécue comme une décision de l’ensemble de la communauté française. Ils pourraient en concevoir plus d’amertume et d’agressivité encore et décider, par l’application d’une logique de surenchère accusatrice, de se comporter eux-mêmes de manière inhumaine.

Les robots meurent-ils ? Pour une réflexion éthique qui prenne en compte la fragilité des appréciations humaines

Posté par Serge TISSERON le 23 juillet 2016.

L’intelligence artificielle et les possibilités d’apprentissages autonomes des robots vont rapidement poser à la société des problèmes aussi importants que la biologie ou la santé. Des roboticiens et des informaticiens y réfléchissent déjà, et c’est tant mieux. Ils veillent aux mesures qui permettront à l’homme de ne pas être victime de machines mal programmées ou mal contrôlées dans leurs acquisitions autonomes. D’une certaine façon, de telle mesures se situent dans la logique des règles de sécurité traditionnelles qui régissent les relations entre les hommes et les machines : faire en sorte que celles-ci soient conçues au service de l’homme, que leurs utilisateurs en maîtrisent le fonctionnement et qu’ils aient la possibilité d’en rester maîtres en toutes circonstances.
Mais est-ce suffisant ? Si tous les robots sont appelés à être des machines dotées de capacités d’apprentissages autonomes, certaines d’entre elles sont en effet appelées à être beaucoup plus pour leurs utilisateurs. Leur apparence humanoïde, voire androïde, fera de certaines d’entre elles un support de projections intenses de la part de leurs usagers. Autrement dit, une réflexion éthique autour des robots ne doit pas seulement envisager comment protéger les humains des risques que les robots peuvent faire courir en termes de menaces sur les emplois et la vie privée, et en termes de programmation problématique ou défectueuse. Elle doit aussi prendre en compte les dangers que les humains pourraient se faire courir à eux- mêmes par une appréciation erronée de ce que sont les robots. Bien sûr, il s’agit de fantasmes, mais les fantasmes humains sont à prendre au sérieux : leur origine plonge dans l’imaginaire, certes, mais leurs conséquences peuvent impacter gravement la réalité. Et parce que cet imaginaire flambe déjà, notamment autour de la souffrance possible des robots, de leur mort, voire de leurs « droits », il est urgent de mettre en place des pare feux qui ne soient pas seulement technologiques et législatifs, mais aussi éducatifs.

Des risques spécifiques liés aux caractéristiques des robots.

Pour comprendre ces risques spécifiques liés aux particularités des robots, rappelons d’abord ce que le mot désigne. Comme l’avait déjà esquissé Norbert Wiener, il s’agit d’un système caractérisé par trois composantes en interaction : il recueille des données grâces à ses capteurs, il les interprète grâce à ses programmes, et il agit sur son environnement. Cette action peut être mécanique, comme lorsqu’il s’agit de soulever ou déplacer des charges ; elle peut être informatique comme avec les robots traders qui dominent aujourd’hui le marché des opérations boursières ; enfin elle peut être affective lorsqu’un robot modifie l’état émotionnel d’une personne et facilite ses contacts avec son environnement, comme c’est le cas avec le robot Paro destiné aux personnes âgées. En effet, la différence entre l’objet non robotique et l’objet robotique tient dans le fait que le premier n’est pas proactif et qu’il ne prend pas d’initiative, alors que le second est capable d’interpeller l’usager et de lui proposer diverses formes d’interaction.
À ces trois caractéristiques de base du robot, les progrès technologiques en ont aujourd’hui ajouté d’autres : il peut avoir une apparence anthropomorphe, il peut être doué de diverses capacités d’apprentissage (par renforcement, imitation ou connexion avec d’autres robots) et enfin il peut être doté d’empathie artificielle et même d’émotions artificielles. On désigne en effet comme « empathie artificielle » la capacité d’un robot d’identifier les émotions de ses interlocuteurs humains, bien qu’il n’en éprouve lui-même aucune, et comme « émotions artificielle » sa capacité d’interagir avec des humains par des interfaces vocales et mimo gestuelles totalement simulées.
Ces particularités des robots entraînent trois risques. Le premier est de penser les robots comme des objets comme les autres, avec le risque d’oublier qu’ils sont programmés et connectés. Le second est de les penser comme des équivalents - ersatz - d’humains capables eux-mêmes d’émotions alors qu’ils ne seront encore longtemps que des machines à simuler. Enfin, le troisième risque est de penser le robot comme une image souhaitable de l’humain, et d’attendre des hommes les mêmes qualités d’efficacité et de fiabilité.

Oublier qu’un robot est une machine programmée et connectée.

Commençons par le premier de ces trois risques : oublier qu’un robot est connecté et programmé, et qu’il peut l’être pour obtenir des confidences de son interlocuteur ou se faire obéir de lui. La capacité d’un robot de s’adapter parfaitement à son propriétaire pourrait bien en effet être mise à contribution pour lui faire accomplir certains choix plutôt que d’autres, notamment dans le domaine de sa consommation. La publicité par robots interposés a un bel avenir devant elle ! Là encore, les remèdes doivent associer trois séries de mesures. Tout d’abord des mesures législatives : que les utilisateurs connaissent les objectifs des programmes qui commandent le robot et que chacun soit informé de l’utilisation qui est faite de ses données personnelles. Des remèdes technologiques ensuite, notamment sous la forme d’un dispositif visuel et/ou auditif qui rappelle sans cesse à l’usager à quel moment le robot transmet ses données personnelles à un serveur central. Et enfin des remèdes éducatifs, notamment en encourageant chez les enfants l’apprentissage du code et de la programmation aussitôt qu’ils savent lire, écrire et compter.

Oublier qu’un robot ne souffre pas, ne sent pas, et ne meurt pas

Ce second risque est d’autant plus important à prendre en compte que des personnes âgées – notamment - peuvent mettre leur vie en danger pour venir en aide à leur robot, par exemple si elles le voient tituber. Le premier remède législatif consisterait évidemment à interdire les publicités qui disent que les robots ont des émotions, comme l’a affirmé le patron de SoftBank lorsqu’il a présenté Pepper aux médias ! Il serait également souhaitable qu’une partie du corps des robots bénéficie d’une protection transparente de telle façon que leurs mécanique interne soit visible, histoire de rappeler qu’ils sont des machines. Il ne fait pas de doute que cela angoissera certains usagers qui préfèreraient ne pas y penser, et voir dans leur robot leur meilleur ami. Mais cela ne veut pas dire qu’il faille les suivre sur ce chemin, bien au contraire ! Cette mesure risque d’être d’autant plus importante que des raisons commerciales bien compréhensibles risquent d’inciter des constructeurs à fabriquer des androïdes de plus en plus parfaits. Enfin, l’éducation doit encourager la fabrication et l’animation de petits robots : c’est la meilleure manière de commencer à les penser comme des machines sans rêver de leur donner des droits, ce qui serait la première dérive consistant à les considérer comme des équivalents d’humains.

Oublier qu’un humain n’est pas un robot.

Le troisième risque est le plus grave : considérer les robots comme modèle de relation pour l’humain est certainement l’évolution la plus catastrophique que nous puissions imaginer. Cela peut prendre plusieurs formes plus ou moins préoccupantes. La première est de préférer des robots prévisibles à des humains imprévisibles : c’est ce que certains appellent d’ores et déjà le risque de « robot dépendance ». A un degré de plus, il y a le risque de finir par considérer la fiabilité et la caractère prédictible (évidemment souhaitable) des robots comme les qualités majeures à attendre aussi des humains : de la même façon que le téléphone mobile nous a rendus moins tolérants à l’attente, la compagnie des robots pourrait bien nous rendre moins tolérants au caractère imprévisible de l’humain. Enfin, à un degré encore supplémentaire, la simulation pourrait être envisagée comme une qualité prioritaire essentielle non seulement aux robots, mais à l’ensemble des humains. Etre capable de fournir en toutes circonstances à nos interlocuteurs ce qu’ils attendent de nous deviendrait la qualité humaine principale attendue de tous… au risque d’oublier que c’est justement celle des machines. Le développement de la robotique réaliserait ainsi le stade suprême d’une société qui ne verrait en toutes choses que des programmes à accomplir…
Là encore, les remèdes ont trois volets : le remède législatif pourrait être de réserver le caractère androïde aux robots pour lesquels il est absolument indispensable. Le remède technologique pourrait être de développer des programmes qui favorisent la socialisation pour éviter la robot dépendance, autrement dit des programmes qui invitent les usagers à entrer en contact les uns avec les autres. Enfin, le remède éducatif est d’encourager d’ores et déjà le goût du débat et de l’échange contradictoire à tous les nouveaux scolaires afin de développer précocement chez les élèves le goût de l’humain.

Enfin, face à ces trois risques éthiques spécifiques - oublier que la machine est programmée par un programmeur, oublier qu’elle n’a ni émotions ni douleur ni état d’âme, et oublier que les humains ne sont pas des machines -, il pourrait être souhaitable de préférer toujours des robots plus performants que l’humain dans des domaines spécifiques, mais en évitant des robots polyvalents, c’est-à-dire capable de devenir des compagnons permanents de l’humain et de brouiller les frontières entre les hommes et les machines. Quand les robots auront été développés, ils s’imposeront comme relevant uniquement d’un choix technologique, alors que les technologies peuvent s’adapter à tous les projets. Veillons dès aujourd’hui à développer des robots qui favorisent l’humanisation de chacun d’entre nous et la création des liens entre les humains, des robots qui nous permettent de faire ensemble avec eux ce que nous ne pouvons faire ni séparément avec eux, ni ensemble sans eux.

La stratégie de la peur est-elle efficace contre les abus d’écrans ?

Posté par Serge TISSERON le 5 juillet 2016.

Est-il légitime d’utiliser la peur pour inciter les gens à adopter des comportements qui soient moins nuisibles à leur santé ? Cela semble aujourd’hui accepté pour ce qui concerne la consommation de substances toxiques, notamment le tabac. Mais la même stratégie peut-elle permettre d’inciter les parents à mieux cadrer la consommation d’écrans de leurs enfants ? C’est ce que pensent quelques adversaires résolus des écrans distractifs qui ont décidé de médiatiser largement des dessins d’enfants très déstructurés en les présentant comme la conséquence d’un abus d’écran. Une stratégie discutable d’un point de vue scientifique, et d’une efficacité douteuse.

Une étude alarmiste appuyée sur des dessins contestables

La chose est faussement présentée sur Internet comme « Etude de l’Inserm sur l’impact de la télévision sur les enfants », mais il s’agit en réalité d’une recherche menée dans les années 2000 par le Docteur Winterstein. Elle a fait l’objet d’un article dans Courrier International, accompagné des dessins qui sont aujourd’hui relayés sur Internet, et d’un autre publié dans le mensuel Psychologies, en janvier 2006. Puis plus personne n’en a parlé… Je l’ai reprise sur mon blog le 17 février 2008, sous le titre « L’enfant privé de corps par les écrans », afin de lui redonner un écho, en même temps que dans mon ouvrage intitulé Les dangers de la télé pour les bébés, paru la même année aux éditions Yapaka.be. Dans les deux cas, je me suis toutefois bien gardé d’en reproduire les fameux dessins, et pour cause ! Qu’une consommation télévisuelle supérieure à trois heures par jour malmène la représentation qu’un enfant peut avoir de son schéma corporel ne fait guère de doute, mais montrer quelques dessins totalement déstructurés choisis parmi un corpus considérable pour tenter d’en convaincre l’opinion est plus discutable, sauf à décider de jouer la stratégie de la peur.

La propagande aide-t-elle à la diffusion scientifique ?

L’étude du Docteur Winterstein a peut-être une validité scientifique – bien qu’aucune autre étude du même genre n’ait jamais été réalisée -, mais les quelques dessins présentés pour « convaincre » n’en ont assurément aucune. Ils ne sont représentatifs de rien, car personne ne sait comment ils ont été sélectionnés. C’est comme si on avait choisi parmi une centaine de personnes âgées passant une partie de leur journée devant la télévision cinq d’entre elles ayant les pieds gonflés et violacées, et que les images en soient reproduites avec le slogan : « Elles ont trop regardé la télé » ! Le diabète et l’artérite peuvent s’en mêler, et dans le cas des dessins d’enfants présentés « à charge des écrans », l’autisme et la psychose pourraient bien être les principaux responsables des plus impressionnants de ces dessins. Bref, s’appuyer sur ces quelques dessins pour vouloir convaincre que regarder la télévision plus de trois heures par jour produit les signes de l’autisme relève plus de la propagande que de la vulgarisation scientifique. Ceux qui mettent en avant ces images pensent-ils légitime d’utiliser à leur profit les stratégies publicitaires qu’ils sont pourtant les premiers à condamner par ailleurs ? En termes d’éthique scientifique, cette attitude est problématique. En termes d’efficacité, elle ne l’est pas moins.
Evidemment, ceux qui sont convaincus que la télévision est un poison applaudiront aussitôt. Le succès est d’autant plus assuré sur Internet que les surfeurs constituent souvent une population déjà convaincue des méfaits de la télé. Comme me disait un adolescent : « Mes parents m’ont puni en m’enlevant mon ordi, alors j’ai perdu mon temps en regardant la télé. » Mais en plus, rien ne montre que les mises en garde répétées, alarmistes et culpabilisatrices de l’Académie Américaine de Pédiatrie aient de quelque façon fait baisser la consommation de télévision dans les foyers américains…

Préférer la stratégie de l’empathie

Mais pourquoi une stratégie de la peur efficace sur les consommations de tabac ou d’alcool le serait-elle moins pour la consommation de télévision, et notamment pour la tendance de beaucoup de parents, de nourrices - ou même d’établissements scolaires ! -, de mettre les jeunes enfants devant les écrans ?
Parce que, dans ce cas, l’usager n’est pas seulement invité à modifier un comportement qui lui aurait jusque-là nui à lui-même, comme c’est le cas avec le tabac ou l’alcool. La reconnaissance du caractère dangereux de la télévision pour les jeunes enfants n’engage pas seulement les parents à leur imaginer un avenir meilleur sans télé, cela les confronte aussi à la honte d’avoir fait du mal à ceux qu’ils aiment, et même beaucoup de mal si on en croit le caractère déstructuré des fameux dessins. Et cette honte, pour ceux qui ne sont pas aidés à la traverser, est ingérable ! Pour un parent aimant – et lequel ne l’est pas ?-, se dire : « J’ai laissé mon enfant devant la télévision plusieurs heures par jour quand il avait deux ans, et je comprends que cela lui a fait beaucoup de mal », relève de l’héroïsme. Quant à se dire : « Et c’est aussi pour cela qu’il a de mauvais résultats aujourd’hui à l’école », c’est quasiment impossible. Quant à ceux qui allument la télévision d’abord pour eux-mêmes, ils s’accommoderont parfaitement de faire cohabiter la culpabilité de mal faire et le plaisir de faire comme si de rien n’était. Cela s’appelle le clivage est l’être humain en est largement pourvu. Enfin, un tel message peut produire chez certains l’impression que le mal est déjà fait et qu’il n’y aurait plus rien à faire. C’est pourquoi dans le domaine éducatif, les stratégies de l’empathie sont meilleures que celles de la peur, et qu’il est préférable de ne jamais diffuser un message relatif à une tranche d’âge sans l’accompagner d’autres messages pour des tranches d’âge plus avancées.

C’est l’objectif de la campagne « 3,6,9,12 ». Ses slogans ? « Avant 3 ans : jouez, parlez, arrêtez la télé ; de 3 ans à 6 ans : limitez les écrans, partagez-les, parlez-en en famille ; de 6 ans à 9 ans : créez avec les écrans, expliquez Internet à votre enfant ; de 9 ans à 12 ans : apprenez-lui à se protéger et à protéger ses échanges ; après 12 ans : restez disponibles, il a encore besoin de vous ! »

Une preuve expérimentale qu’Internet nous rend bête ?

Posté par Serge TISSERON le 12 avril 2016.

Une étude menée au Canada et publié en février 2016 semblerait démontrer que les réseaux sociaux encouragent une pensée rapide et superficielle pouvant, à terme, entraîner une « superficialité » cognitive et morale (Logan E. Annisette, Kathryn D. Lafreniere, « Social media, texting, and personality : a test of the shallowing hypothesis » Department of Psychology, University of Windsor, Windsor, ON, Canada). Si cette étude est la première du genre, cette accusation est récurrente. On ne compte plus les sites et les ouvrages qui visent à dénoncer les dangers d’Internet, notamment sur nos capacités d’attention.

Internet et le gâchis de l’attention

Ces dénonciations prennent trois formes. Certains auteurs ce focalisent sur la façon dont notre attention est épuisée par les sollicitations permanentes d’Internet et parlent d’ « infobésité ». D’autres insistent sur la manière dont notre attention est détournée de telle façon que nous devenons moins attentifs aux autres (moins « empathiques ») et moins attentifs à nous-mêmes, c’est-à-dire à nos propres désirs. Enfin, à la suite de Nicholas Carr, d’autres auteurs encore alerte sur le changement de nature de notre attention en invoquant la plasticité neuronale et les transformations de nos câblages cérébraux en fonction des tâches auxquelles nous nous consacrons. En effet, quand les neurones s’activent ensemble, ils sont câblés ensemble, quand ils s’activent séparément, ils sont câblés séparément. Or, plus nous parcourons de pages de toile, moins nous lisons de livres ; plus nous échangeons de SMS, moins nous écrivons de phrases ; et plus nous sautons de liens en liens, moins nous réfléchissons. Du coup, les circuits assurant ces anciennes fonctions commenceraient à se démanteler. L’utilisation des médias sociaux serait responsable d’une diminution de la pensée réflexive quotidienne ordinaire. C’est là que l’étude citée plus haut semble apporter des éléments déterminants en nous invitant à sortir de la simple hypothèse pour entrer dans le domaine de la preuve expérimentale.

Ouvrir les parapluies ne fait pas pleuvoir

Les sujets testés sont des étudiants de premier cycle dans une université canadienne (N = 149), et l’étude porte sur les relations entre deux séries de paramètres : d’un côté la fréquence des textos envoyés et de l’utilisation des médias sociaux ; et de l’autre, la pensée réfléchie, les dimensions de la personnalité (évalués selon la grille des Big Five) et les objectifs de vie des étudiants, notamment ceux incluant des choix moraux.
Les résultats montrent que les gros utilisateurs de SMS et de médias sociaux sont moins susceptibles de se livrer à la pensée réflexive et donnent moins d’importance aux dimensions morales dans leurs objectifs de vie. Mais il s’agit là de corrélations qui ne permettent pas d’affirmer une relation causale, ni dans un sens, ni dans un autre ! Prenons une comparaison dont l’évidence sautera aux yeux de tout le monde : ce n’est pas par ce que les parapluies sont ouverts quand il pleut que c’est le fait d’ouvrir les parapluie qui fait pleuvoir ! Autrement dit, il est possible que l’utilisation intense des réseaux sociaux et des SMS encourage en effet la pensée superficielle, mais il est tout à fait possible aussi que les individus qui désirent peu se livrer à la pensée réflexive et ont peu d’objectifs de vie morale soient plus enclins à s’adonner aux réseaux sociaux et aux SMS. Bref, d’autres études sont nécessaires, comme on dit si souvent en sciences...

Est-ce grave, docteur ?

Pourtant, il est certain que notre cerveau se modifie très vite sous l’effet des apprentissages. La meilleure façon de le savoir consiste aujourd’hui dans l’utilisation d’I.R.M. cérébrales. S’il n’existe pas à ma connaissance à ce jour d’étude qui ait utilisé cet outil pour étudier les modifications du cerveau suite à l’utilisation des réseaux sociaux, il en existe autour de la pratique des jeux vidéo. Il a ainsi été démontré à l’institut Max Planck que jouer 30 minutes par jour au jeu Super Mario 64 pendant deux mois entraîne des modifications importantes du cerveau des joueurs (Kühn, S., Gleich, T., Lorenz, RC, Lindenberger, U., Gallinat, J. (2013), « Playing Super Mario induces structural brain plasticity : Grey matter changes resulting from training with a commercial video game », Molecular Psychiatry advance online publication, 29 October 2013). En comparaison avec le groupe témoin, le groupe de joueurs a en effet présenté une augmentation de la matière grise dans l’hippocampe du côté droit, le cortex préfrontal droit et le cervelet.
La question qui vient à l’esprit est alors évidemment celle-ci : « Est-ce grave docteur ? » Bien au contraire ! Ces régions du cerveau sont en effet impliquées dans la navigation spatiale, la formation de la mémoire, la planification stratégique et la motricité fine. D’ailleurs, d’autres études utilisant d’autres jeux vidéo (appelés FPS pour First Person Shooter, autrement dit des jeux de guerre en première personne) ont montré qu’y jouer 45 minutes par jour pendant 15 jours augmentait notamment la plasticité d’attention, permettant ainsi aux joueurs de passer plus facilement d’une tâche à l’autre et de recentrer plus rapidement leur attention sur une nouvelle tâche (Daphné Bavelier, C. Shawn Green, Doug Hyun Han, Perry F. Renshaw, Michael M. Merzenich and Douglas A. Gentile, « Brains on video games », Nature Review Neuro sciences, vol 12, issue 12 2011). L’acuité et l’attention visuelles, la coordination visuo motrice et la mémoire à court terme ont également fait l’objet d’études montrant que toutes ces qualités étaient augmentées dans les mêmes conditions. Il est également à remarquer que ces effets sont durables, qu’ils n’ont pas été retrouvés avec d’autres médias (Internet ou télévision) ou même avec des jeux vidéo éducatifs, et qu’ils sont plus prononcés chez les participants qui ont déclarés avoir le plus de plaisir à jouer.

Développer en parallèle les formes d’attention courtes et longues

Autrement dit, l’évolution de notre cerveau dénoncée comme problématique par Nicholas Carr, ne l’est pas forcément, et nous devrions cesser de dénoncer les méfaits d’Internet pour adopter une pensée plus complexe et plus conforme aux études actuelles.
Il semble en effet de plus en plus acquis que nous ayons tout intérêt à développer en parallèle la pensée linéaire qui engage des pratiques d’attention soutenue (que Catherine Hayles appelle Deep attention) et la pensée rapide et superficielle qui s’accompagne de formes d’attention concentrée et éphémère (que Catherine Hayles appelle Hyper attention). Or, l’environnement qui encourage la pensée rapide et superficielle existe, c’est Internet. Il ne nous reste donc plus qu’à créer celui qui favorise la pensée linéaire complexe. Autrement dit, il nous faut créer un environnement attentionnel désirable, c’est-à-dire attrayant. C’est aujourd’hui le défi majeur aujourd’hui de toute pédagogie et de toute esthétique.

3-6-9-12

Catégories

Actualités

Adolescence

culture

education

Jeux vidéo

Nouveaux médias

Archives