Les robots meurent-ils ? Pour une réflexion éthique qui prenne en compte la fragilité des appréciations humaines

Posté par Serge Tisseron le 23 juillet 2016.

L’intelligence artificielle et les possibilités d’apprentissages autonomes des robots vont rapidement poser à la société des problèmes aussi importants que la biologie ou la santé. Des roboticiens et des informaticiens y réfléchissent déjà, et c’est tant mieux. Ils veillent aux mesures qui permettront à l’homme de ne pas être victime de machines mal programmées ou mal contrôlées dans leurs acquisitions autonomes. D’une certaine façon, de telle mesures se situent dans la logique des règles de sécurité traditionnelles qui régissent les relations entre les hommes et les machines : faire en sorte que celles-ci soient conçues au service de l’homme, que leurs utilisateurs en maîtrisent le fonctionnement et qu’ils aient la possibilité d’en rester maîtres en toutes circonstances.
Mais est-ce suffisant ? Si tous les robots sont appelés à être des machines dotées de capacités d’apprentissages autonomes, certaines d’entre elles sont en effet appelées à être beaucoup plus pour leurs utilisateurs. Leur apparence humanoïde, voire androïde, fera de certaines d’entre elles un support de projections intenses de la part de leurs usagers. Autrement dit, une réflexion éthique autour des robots ne doit pas seulement envisager comment protéger les humains des risques que les robots peuvent faire courir en termes de menaces sur les emplois et la vie privée, et en termes de programmation problématique ou défectueuse. Elle doit aussi prendre en compte les dangers que les humains pourraient se faire courir à eux- mêmes par une appréciation erronée de ce que sont les robots. Bien sûr, il s’agit de fantasmes, mais les fantasmes humains sont à prendre au sérieux : leur origine plonge dans l’imaginaire, certes, mais leurs conséquences peuvent impacter gravement la réalité. Et parce que cet imaginaire flambe déjà, notamment autour de la souffrance possible des robots, de leur mort, voire de leurs « droits », il est urgent de mettre en place des pare feux qui ne soient pas seulement technologiques et législatifs, mais aussi éducatifs.

Des risques spécifiques liés aux caractéristiques des robots.

Pour comprendre ces risques spécifiques liés aux particularités des robots, rappelons d’abord ce que le mot désigne. Comme l’avait déjà esquissé Norbert Wiener, il s’agit d’un système caractérisé par trois composantes en interaction : il recueille des données grâces à ses capteurs, il les interprète grâce à ses programmes, et il agit sur son environnement. Cette action peut être mécanique, comme lorsqu’il s’agit de soulever ou déplacer des charges ; elle peut être informatique comme avec les robots traders qui dominent aujourd’hui le marché des opérations boursières ; enfin elle peut être affective lorsqu’un robot modifie l’état émotionnel d’une personne et facilite ses contacts avec son environnement, comme c’est le cas avec le robot Paro destiné aux personnes âgées. En effet, la différence entre l’objet non robotique et l’objet robotique tient dans le fait que le premier n’est pas proactif et qu’il ne prend pas d’initiative, alors que le second est capable d’interpeller l’usager et de lui proposer diverses formes d’interaction.
À ces trois caractéristiques de base du robot, les progrès technologiques en ont aujourd’hui ajouté d’autres : il peut avoir une apparence anthropomorphe, il peut être doué de diverses capacités d’apprentissage (par renforcement, imitation ou connexion avec d’autres robots) et enfin il peut être doté d’empathie artificielle et même d’émotions artificielles. On désigne en effet comme « empathie artificielle » la capacité d’un robot d’identifier les émotions de ses interlocuteurs humains, bien qu’il n’en éprouve lui-même aucune, et comme « émotions artificielle » sa capacité d’interagir avec des humains par des interfaces vocales et mimo gestuelles totalement simulées.
Ces particularités des robots entraînent trois risques. Le premier est de penser les robots comme des objets comme les autres, avec le risque d’oublier qu’ils sont programmés et connectés. Le second est de les penser comme des équivalents - ersatz - d’humains capables eux-mêmes d’émotions alors qu’ils ne seront encore longtemps que des machines à simuler. Enfin, le troisième risque est de penser le robot comme une image souhaitable de l’humain, et d’attendre des hommes les mêmes qualités d’efficacité et de fiabilité.

Oublier qu’un robot est une machine programmée et connectée.

Commençons par le premier de ces trois risques : oublier qu’un robot est connecté et programmé, et qu’il peut l’être pour obtenir des confidences de son interlocuteur ou se faire obéir de lui. La capacité d’un robot de s’adapter parfaitement à son propriétaire pourrait bien en effet être mise à contribution pour lui faire accomplir certains choix plutôt que d’autres, notamment dans le domaine de sa consommation. La publicité par robots interposés a un bel avenir devant elle ! Là encore, les remèdes doivent associer trois séries de mesures. Tout d’abord des mesures législatives : que les utilisateurs connaissent les objectifs des programmes qui commandent le robot et que chacun soit informé de l’utilisation qui est faite de ses données personnelles. Des remèdes technologiques ensuite, notamment sous la forme d’un dispositif visuel et/ou auditif qui rappelle sans cesse à l’usager à quel moment le robot transmet ses données personnelles à un serveur central. Et enfin des remèdes éducatifs, notamment en encourageant chez les enfants l’apprentissage du code et de la programmation aussitôt qu’ils savent lire, écrire et compter.

Oublier qu’un robot ne souffre pas, ne sent pas, et ne meurt pas

Ce second risque est d’autant plus important à prendre en compte que des personnes âgées – notamment - peuvent mettre leur vie en danger pour venir en aide à leur robot, par exemple si elles le voient tituber. Le premier remède législatif consisterait évidemment à interdire les publicités qui disent que les robots ont des émotions, comme l’a affirmé le patron de SoftBank lorsqu’il a présenté Pepper aux médias ! Il serait également souhaitable qu’une partie du corps des robots bénéficie d’une protection transparente de telle façon que leurs mécanique interne soit visible, histoire de rappeler qu’ils sont des machines. Il ne fait pas de doute que cela angoissera certains usagers qui préfèreraient ne pas y penser, et voir dans leur robot leur meilleur ami. Mais cela ne veut pas dire qu’il faille les suivre sur ce chemin, bien au contraire ! Cette mesure risque d’être d’autant plus importante que des raisons commerciales bien compréhensibles risquent d’inciter des constructeurs à fabriquer des androïdes de plus en plus parfaits. Enfin, l’éducation doit encourager la fabrication et l’animation de petits robots : c’est la meilleure manière de commencer à les penser comme des machines sans rêver de leur donner des droits, ce qui serait la première dérive consistant à les considérer comme des équivalents d’humains.

Oublier qu’un humain n’est pas un robot.

Le troisième risque est le plus grave : considérer les robots comme modèle de relation pour l’humain est certainement l’évolution la plus catastrophique que nous puissions imaginer. Cela peut prendre plusieurs formes plus ou moins préoccupantes. La première est de préférer des robots prévisibles à des humains imprévisibles : c’est ce que certains appellent d’ores et déjà le risque de « robot dépendance ». A un degré de plus, il y a le risque de finir par considérer la fiabilité et la caractère prédictible (évidemment souhaitable) des robots comme les qualités majeures à attendre aussi des humains : de la même façon que le téléphone mobile nous a rendus moins tolérants à l’attente, la compagnie des robots pourrait bien nous rendre moins tolérants au caractère imprévisible de l’humain. Enfin, à un degré encore supplémentaire, la simulation pourrait être envisagée comme une qualité prioritaire essentielle non seulement aux robots, mais à l’ensemble des humains. Etre capable de fournir en toutes circonstances à nos interlocuteurs ce qu’ils attendent de nous deviendrait la qualité humaine principale attendue de tous… au risque d’oublier que c’est justement celle des machines. Le développement de la robotique réaliserait ainsi le stade suprême d’une société qui ne verrait en toutes choses que des programmes à accomplir…
Là encore, les remèdes ont trois volets : le remède législatif pourrait être de réserver le caractère androïde aux robots pour lesquels il est absolument indispensable. Le remède technologique pourrait être de développer des programmes qui favorisent la socialisation pour éviter la robot dépendance, autrement dit des programmes qui invitent les usagers à entrer en contact les uns avec les autres. Enfin, le remède éducatif est d’encourager d’ores et déjà le goût du débat et de l’échange contradictoire à tous les nouveaux scolaires afin de développer précocement chez les élèves le goût de l’humain.

Enfin, face à ces trois risques éthiques spécifiques - oublier que la machine est programmée par un programmeur, oublier qu’elle n’a ni émotions ni douleur ni état d’âme, et oublier que les humains ne sont pas des machines -, il pourrait être souhaitable de préférer toujours des robots plus performants que l’humain dans des domaines spécifiques, mais en évitant des robots polyvalents, c’est-à-dire capable de devenir des compagnons permanents de l’humain et de brouiller les frontières entre les hommes et les machines. Quand les robots auront été développés, ils s’imposeront comme relevant uniquement d’un choix technologique, alors que les technologies peuvent s’adapter à tous les projets. Veillons dès aujourd’hui à développer des robots qui favorisent l’humanisation de chacun d’entre nous et la création des liens entre les humains, des robots qui nous permettent de faire ensemble avec eux ce que nous ne pouvons faire ni séparément avec eux, ni ensemble sans eux.

La stratégie de la peur est-elle efficace contre les abus d’écrans ?

Posté par Serge Tisseron le 5 juillet 2016.

Est-il légitime d’utiliser la peur pour inciter les gens à adopter des comportements qui soient moins nuisibles à leur santé ? Cela semble aujourd’hui accepté pour ce qui concerne la consommation de substances toxiques, notamment le tabac. Mais la même stratégie peut-elle permettre d’inciter les parents à mieux cadrer la consommation d’écrans de leurs enfants ? C’est ce que pensent quelques adversaires résolus des écrans distractifs qui ont décidé de médiatiser largement des dessins d’enfants très déstructurés en les présentant comme la conséquence d’un abus d’écran. Une stratégie discutable d’un point de vue scientifique, et d’une efficacité douteuse.

Une étude alarmiste appuyée sur des dessins contestables

La chose est faussement présentée sur Internet comme « Etude de l’Inserm sur l’impact de la télévision sur les enfants », mais il s’agit en réalité d’une recherche menée dans les années 2000 par le Docteur Winterstein. Elle a fait l’objet d’un article dans Courrier International, accompagné des dessins qui sont aujourd’hui relayés sur Internet, et d’un autre publié dans le mensuel Psychologies, en janvier 2006. Puis plus personne n’en a parlé… Je l’ai reprise sur mon blog le 17 février 2008, sous le titre « L’enfant privé de corps par les écrans », afin de lui redonner un écho, en même temps que dans mon ouvrage intitulé Les dangers de la télé pour les bébés, paru la même année aux éditions Yapaka.be. Dans les deux cas, je me suis toutefois bien gardé d’en reproduire les fameux dessins, et pour cause ! Qu’une consommation télévisuelle supérieure à trois heures par jour malmène la représentation qu’un enfant peut avoir de son schéma corporel ne fait guère de doute, mais montrer quelques dessins totalement déstructurés choisis parmi un corpus considérable pour tenter d’en convaincre l’opinion est plus discutable, sauf à décider de jouer la stratégie de la peur.

La propagande aide-t-elle à la diffusion scientifique ?

L’étude du Docteur Winterstein a peut-être une validité scientifique – bien qu’aucune autre étude du même genre n’ait jamais été réalisée -, mais les quelques dessins présentés pour « convaincre » n’en ont assurément aucune. Ils ne sont représentatifs de rien, car personne ne sait comment ils ont été sélectionnés. C’est comme si on avait choisi parmi une centaine de personnes âgées passant une partie de leur journée devant la télévision cinq d’entre elles ayant les pieds gonflés et violacées, et que les images en soient reproduites avec le slogan : « Elles ont trop regardé la télé » ! Le diabète et l’artérite peuvent s’en mêler, et dans le cas des dessins d’enfants présentés « à charge des écrans », l’autisme et la psychose pourraient bien être les principaux responsables des plus impressionnants de ces dessins. Bref, s’appuyer sur ces quelques dessins pour vouloir convaincre que regarder la télévision plus de trois heures par jour produit les signes de l’autisme relève plus de la propagande que de la vulgarisation scientifique. Ceux qui mettent en avant ces images pensent-ils légitime d’utiliser à leur profit les stratégies publicitaires qu’ils sont pourtant les premiers à condamner par ailleurs ? En termes d’éthique scientifique, cette attitude est problématique. En termes d’efficacité, elle ne l’est pas moins.
Evidemment, ceux qui sont convaincus que la télévision est un poison applaudiront aussitôt. Le succès est d’autant plus assuré sur Internet que les surfeurs constituent souvent une population déjà convaincue des méfaits de la télé. Comme me disait un adolescent : « Mes parents m’ont puni en m’enlevant mon ordi, alors j’ai perdu mon temps en regardant la télé. » Mais en plus, rien ne montre que les mises en garde répétées, alarmistes et culpabilisatrices de l’Académie Américaine de Pédiatrie aient de quelque façon fait baisser la consommation de télévision dans les foyers américains…

Préférer la stratégie de l’empathie

Mais pourquoi une stratégie de la peur efficace sur les consommations de tabac ou d’alcool le serait-elle moins pour la consommation de télévision, et notamment pour la tendance de beaucoup de parents, de nourrices - ou même d’établissements scolaires ! -, de mettre les jeunes enfants devant les écrans ?
Parce que, dans ce cas, l’usager n’est pas seulement invité à modifier un comportement qui lui aurait jusque-là nui à lui-même, comme c’est le cas avec le tabac ou l’alcool. La reconnaissance du caractère dangereux de la télévision pour les jeunes enfants n’engage pas seulement les parents à leur imaginer un avenir meilleur sans télé, cela les confronte aussi à la honte d’avoir fait du mal à ceux qu’ils aiment, et même beaucoup de mal si on en croit le caractère déstructuré des fameux dessins. Et cette honte, pour ceux qui ne sont pas aidés à la traverser, est ingérable ! Pour un parent aimant – et lequel ne l’est pas ?-, se dire : « J’ai laissé mon enfant devant la télévision plusieurs heures par jour quand il avait deux ans, et je comprends que cela lui a fait beaucoup de mal », relève de l’héroïsme. Quant à se dire : « Et c’est aussi pour cela qu’il a de mauvais résultats aujourd’hui à l’école », c’est quasiment impossible. Quant à ceux qui allument la télévision d’abord pour eux-mêmes, ils s’accommoderont parfaitement de faire cohabiter la culpabilité de mal faire et le plaisir de faire comme si de rien n’était. Cela s’appelle le clivage est l’être humain en est largement pourvu. Enfin, un tel message peut produire chez certains l’impression que le mal est déjà fait et qu’il n’y aurait plus rien à faire. C’est pourquoi dans le domaine éducatif, les stratégies de l’empathie sont meilleures que celles de la peur, et qu’il est préférable de ne jamais diffuser un message relatif à une tranche d’âge sans l’accompagner d’autres messages pour des tranches d’âge plus avancées.

C’est l’objectif de la campagne « 3,6,9,12 ». Ses slogans ? « Avant 3 ans : jouez, parlez, arrêtez la télé ; de 3 ans à 6 ans : limitez les écrans, partagez-les, parlez-en en famille ; de 6 ans à 9 ans : créez avec les écrans, expliquez Internet à votre enfant ; de 9 ans à 12 ans : apprenez-lui à se protéger et à protéger ses échanges ; après 12 ans : restez disponibles, il a encore besoin de vous ! »

Une preuve expérimentale qu’Internet nous rend bête ?

Posté par Serge Tisseron le 12 avril 2016.

Une étude menée au Canada et publié en février 2016 semblerait démontrer que les réseaux sociaux encouragent une pensée rapide et superficielle pouvant, à terme, entraîner une « superficialité » cognitive et morale (Logan E. Annisette, Kathryn D. Lafreniere, « Social media, texting, and personality : a test of the shallowing hypothesis » Department of Psychology, University of Windsor, Windsor, ON, Canada). Si cette étude est la première du genre, cette accusation est récurrente. On ne compte plus les sites et les ouvrages qui visent à dénoncer les dangers d’Internet, notamment sur nos capacités d’attention.

Internet et le gâchis de l’attention

Ces dénonciations prennent trois formes. Certains auteurs ce focalisent sur la façon dont notre attention est épuisée par les sollicitations permanentes d’Internet et parlent d’ « infobésité ». D’autres insistent sur la manière dont notre attention est détournée de telle façon que nous devenons moins attentifs aux autres (moins « empathiques ») et moins attentifs à nous-mêmes, c’est-à-dire à nos propres désirs. Enfin, à la suite de Nicholas Carr, d’autres auteurs encore alerte sur le changement de nature de notre attention en invoquant la plasticité neuronale et les transformations de nos câblages cérébraux en fonction des tâches auxquelles nous nous consacrons. En effet, quand les neurones s’activent ensemble, ils sont câblés ensemble, quand ils s’activent séparément, ils sont câblés séparément. Or, plus nous parcourons de pages de toile, moins nous lisons de livres ; plus nous échangeons de SMS, moins nous écrivons de phrases ; et plus nous sautons de liens en liens, moins nous réfléchissons. Du coup, les circuits assurant ces anciennes fonctions commenceraient à se démanteler. L’utilisation des médias sociaux serait responsable d’une diminution de la pensée réflexive quotidienne ordinaire. C’est là que l’étude citée plus haut semble apporter des éléments déterminants en nous invitant à sortir de la simple hypothèse pour entrer dans le domaine de la preuve expérimentale.

Ouvrir les parapluies ne fait pas pleuvoir

Les sujets testés sont des étudiants de premier cycle dans une université canadienne (N = 149), et l’étude porte sur les relations entre deux séries de paramètres : d’un côté la fréquence des textos envoyés et de l’utilisation des médias sociaux ; et de l’autre, la pensée réfléchie, les dimensions de la personnalité (évalués selon la grille des Big Five) et les objectifs de vie des étudiants, notamment ceux incluant des choix moraux.
Les résultats montrent que les gros utilisateurs de SMS et de médias sociaux sont moins susceptibles de se livrer à la pensée réflexive et donnent moins d’importance aux dimensions morales dans leurs objectifs de vie. Mais il s’agit là de corrélations qui ne permettent pas d’affirmer une relation causale, ni dans un sens, ni dans un autre ! Prenons une comparaison dont l’évidence sautera aux yeux de tout le monde : ce n’est pas par ce que les parapluies sont ouverts quand il pleut que c’est le fait d’ouvrir les parapluie qui fait pleuvoir ! Autrement dit, il est possible que l’utilisation intense des réseaux sociaux et des SMS encourage en effet la pensée superficielle, mais il est tout à fait possible aussi que les individus qui désirent peu se livrer à la pensée réflexive et ont peu d’objectifs de vie morale soient plus enclins à s’adonner aux réseaux sociaux et aux SMS. Bref, d’autres études sont nécessaires, comme on dit si souvent en sciences...

Est-ce grave, docteur ?

Pourtant, il est certain que notre cerveau se modifie très vite sous l’effet des apprentissages. La meilleure façon de le savoir consiste aujourd’hui dans l’utilisation d’I.R.M. cérébrales. S’il n’existe pas à ma connaissance à ce jour d’étude qui ait utilisé cet outil pour étudier les modifications du cerveau suite à l’utilisation des réseaux sociaux, il en existe autour de la pratique des jeux vidéo. Il a ainsi été démontré à l’institut Max Planck que jouer 30 minutes par jour au jeu Super Mario 64 pendant deux mois entraîne des modifications importantes du cerveau des joueurs (Kühn, S., Gleich, T., Lorenz, RC, Lindenberger, U., Gallinat, J. (2013), « Playing Super Mario induces structural brain plasticity : Grey matter changes resulting from training with a commercial video game », Molecular Psychiatry advance online publication, 29 October 2013). En comparaison avec le groupe témoin, le groupe de joueurs a en effet présenté une augmentation de la matière grise dans l’hippocampe du côté droit, le cortex préfrontal droit et le cervelet.
La question qui vient à l’esprit est alors évidemment celle-ci : « Est-ce grave docteur ? » Bien au contraire ! Ces régions du cerveau sont en effet impliquées dans la navigation spatiale, la formation de la mémoire, la planification stratégique et la motricité fine. D’ailleurs, d’autres études utilisant d’autres jeux vidéo (appelés FPS pour First Person Shooter, autrement dit des jeux de guerre en première personne) ont montré qu’y jouer 45 minutes par jour pendant 15 jours augmentait notamment la plasticité d’attention, permettant ainsi aux joueurs de passer plus facilement d’une tâche à l’autre et de recentrer plus rapidement leur attention sur une nouvelle tâche (Daphné Bavelier, C. Shawn Green, Doug Hyun Han, Perry F. Renshaw, Michael M. Merzenich and Douglas A. Gentile, « Brains on video games », Nature Review Neuro sciences, vol 12, issue 12 2011). L’acuité et l’attention visuelles, la coordination visuo motrice et la mémoire à court terme ont également fait l’objet d’études montrant que toutes ces qualités étaient augmentées dans les mêmes conditions. Il est également à remarquer que ces effets sont durables, qu’ils n’ont pas été retrouvés avec d’autres médias (Internet ou télévision) ou même avec des jeux vidéo éducatifs, et qu’ils sont plus prononcés chez les participants qui ont déclarés avoir le plus de plaisir à jouer.

Développer en parallèle les formes d’attention courtes et longues

Autrement dit, l’évolution de notre cerveau dénoncée comme problématique par Nicholas Carr, ne l’est pas forcément, et nous devrions cesser de dénoncer les méfaits d’Internet pour adopter une pensée plus complexe et plus conforme aux études actuelles.
Il semble en effet de plus en plus acquis que nous ayons tout intérêt à développer en parallèle la pensée linéaire qui engage des pratiques d’attention soutenue (que Catherine Hayles appelle Deep attention) et la pensée rapide et superficielle qui s’accompagne de formes d’attention concentrée et éphémère (que Catherine Hayles appelle Hyper attention). Or, l’environnement qui encourage la pensée rapide et superficielle existe, c’est Internet. Il ne nous reste donc plus qu’à créer celui qui favorise la pensée linéaire complexe. Autrement dit, il nous faut créer un environnement attentionnel désirable, c’est-à-dire attrayant. C’est aujourd’hui le défi majeur aujourd’hui de toute pédagogie et de toute esthétique.

Ne donnons jamais aucun droit à nos robots !

Posté par Serge Tisseron le 8 mars 2016.

Il n’a pas fallu longtemps pour que la vidéo montrant les performances du robot bipède Atlas de Boston Dynamics, mise en ligne fin février 2016, ne suscite des commentaires indignés. Il est vrai que le protocole d’expérimentation a de quoi évoquer une scène de maltraitance. L’examinateur éloigne la caisse que doit prendre le robot juste au moment où celui-ci s’apprête à la saisir, le pousse pour le faire tomber, et pour finir le déstabilise en l’attaquant par derrière. Les protestataires se sont unis autour de l’idée que les robots méritent plus de considération. Faudrait-il alors les considérer comme des humains ? Bien qu’Atlas ait beaucoup d’humanité dans sa façon de marcher, et qu’il en aura encore plus quand il bénéficiera d’une main semblable à la nôtre, il est difficile d’ignorer les nombreuses différences qui continueront à prévaloir entre lui et les magasiniers qu’il risque bientôt de remplacer. Faudrait-il alors doter les robots d’un statut intermédiaire, ni totalement vivant, ni totalement objets ?

Où placer la ligne de partage ?

Certains y pensent, soit qu’ils formulent les choses de cette façon, soit qu’ils demandent la promulgation de lois protégeant les robots de la maltraitance, ce qui reviendrait à les considérer comme bénéficiaires de droits très supérieurs à ceux de l’ensemble des objets, et même des végétaux.
Mais gardons-nous d’un tel choix. Il y aurait un grand danger à créer parmi les objets une distinction qui passerait entre des objets auxquels seraient reconnus des droits, à commencer par celui de ne pas être maltraités, et d’autres auxquels n’en serait reconnu aucun, comme un grille-pain ou un réfrigérateur. Tout d’abord, quels critères prendrions-nous en compte pour décider de cette ligne de démarcation ? La marche ? La parole ? La capacité d’un objet d’identifier nos états d’âme et de nous répondre en simulant des émotions adaptées ? Celle de s’organiser en réseau, voire en communauté ? Celle de se reproduire ? La voiture autonome se verrait-elle reconnaître des droits sous prétexte qu’elle parle, qu’elle trouve son chemin sans l’aide de son passager et qu’elle lui épargne des accidents en conduisant mieux que lui ? Ou bien cela serait-il jugé insuffisant ? Et les robots militaires sophistiqués bénéficieraient-ils des conventions de Genève, notamment du droit de ne pas être achevé sur le champ de bataille ? Chacun voit les problèmes d’un tel choix, d’autant plus que les robots évoluant très vite, il faudrait rapidement imaginer des droits supplémentaires pour les derniers modèles...

Hiérarchiser pour ne pas comprendre

Mais la difficulté à trouver un critère permettant de classer les objets en « supérieurs » et « inférieurs », pour ne pas dire en « nobles » et « roturiers », ne serait pas le seul problème rencontré sur le chemin de vouloir donner des droits aux robots. Ce serait aussi créer avec les objets une situation dont nous constatons tous les jours l’absurdité pour les animaux. Il y a d’un côté ceux qu’on appelle « de compagnie », auxquels leurs propriétaires offrent des vêtements, des jouets, des biftecks et des vacances. Et il y a de l’autre ceux qu’on appelle « de boucherie », auxquels n’est reconnu aucun droit, même pas celui de mourir sans souffrir. Mais en élevant ainsi les uns vers notre humanité, et en rabaissant les autres vers le règne minéral, nous nous empêchons de questionner notre relation au genre animal dans son intégralité et sa spécificité. Et cette séparation s’avère constituer un obstacle majeur sur la voie de comprendre à la fois les animaux et les relations que nous avons avec eux.
Vouloir créer des droits spécifiques à certains objets sous prétexte qu’ils ont une part –d’ailleurs très variable – d’autonomie nous condamnerait exactement de la même manière à ignorer la complexité des liens psychologiques et affectifs qui nous unissent à l’ensemble de nos objets, quels qu’ils soient, et cela depuis les origines de l’humanité. Bref, un tel choix serait une nouvelle manifestation du déni dans lequel notre culture s’est installée quant aux relations riches et complexes que nous entretenons avec l’ensemble de nos objets, avec pour conséquence d’ignorer une part importante de notre vie psychique.

Des objets que l’homme habite et transforme depuis les origines du monde

Car l’être humain n’a pas seulement créé des outils pour l’aider à transformer le monde. Il les a créés pour le seconder dans ses projets, leur accorder la confiance qu’il renonce parfois à donner à ses semblables, et pouvoir se confier à eux à défaut de partenaires humains. Bref, l’être humain a créé l’ensemble de ses artefacts comme des opérateurs de changement destinés à lui servir tour à tour d’esclaves, de complices, de témoin et de compagnons, et bientôt, avec les robots, de tout cela à la fois. Mais cela n’est possible que parce qu’à tout moment, nous somme capables d’utiliser les objets pour transformer le monde et nous laisser transformer par eux, mais aussi, et tout autant, de les habiter et de nous laisser habiter par eux. Nous habitons en effet nos divers artefacts avec notre corps, soit directement quand nous y logeons, comme c’est le cas avec nos maisons, nos voitures et nos vêtements, soit indirectement quand nous les utilisons pour prolonger certains de nos actions physiques, comme l’a bien montré Leroi-Gourhan. Mais n’oublions pas que nous les habitons également avec notre esprit puisque ce sont aussi nos fonctions mentales qui sont prises en relais par eux, et que nous les habitons avec nos émotions, au point parfois de les pleurer quand ils viennent à disparaître. Quant à être habité par nos objets, c’est le cas avec l’importance qu’ils ont dans nos désirs, nos attentes et nos projets, mais aussi par la place de plus en plus grande qu’ils prennent à l’intérieur même de nos corps, sous la forme de prothèses diverses et bientôt de nano robots pouvant accéder à l’intimité de nos cellules. Les pouvoirs de contenance et de transformation sont au cœur de la relation que nous établissons avec les plus simples de nos objets, exactement comme ils le seront demain avec les plus sophistiqués de nos robots. Certains pourront s’améliorer eux-mêmes, d’autres se reproduire, c’est vrai, mais gardons nous de porter sur ces capacités nouvelles un regard qui en ferait l’équivalent de nos propres possibilités d’amélioration et de reproduction. Envisageons les plutôt comme une nouvelle facette des capacités de transformation dont sont capables des objets dans lesquels l’homme a placé suffisamment d’outils simulant ses propres capacités.

A défaut de comprendre cette continuité, nous risquerions de créer entre l’ensemble de nos objets traditionnels et les robots une fracture que rien ne justifie. Avec le risque de finir par ne plus nous octroyer le droit de les débrancher. Car même lorsque les robots seront capables de simuler des émotions semblables à celles des humains, de s’organiser en société, de se perfectionner, voire de se reproduire, ils resteront en même temps des machines qu’il faudra savoir débrancher le moment venu. C’est ce que nous rappellent très opportunément de nombreuses oeuvres de science-fiction, de 2001 l’odyssée de l’espace à Real Humans en passant par Blade Runner et I robot. Et qu’on ne nous parle pas de maltraitance ! Veillons plutôt à ce qu’aucun homme ne soit jamais maltraité par un robot, pour quelque raison que ce soit ! Car le problème essentiel que va nous poser rapidement le développement des robots n’est pas celui des droits des robots, mais bien celui des droits des humains face à eux.

L’erreur de Matthieu Ricard

Posté par Serge Tisseron le 28 février 2016.

Espérons qu’un grand nombre de téléspectateurs auront regardé, vendredi 26 février, le documentaire de Sylvie Gilman et Thierry de Lestrade intitulé « Vers un monde altruiste ? ». Cette synthèse appuyée sur de récentes découvertes en neurosciences montre que nous ne sommes pas seulement motivés par le désir de conquête et d’affirmation de soi, mais aussi par celui d’entraide et de solidarité. Mais il ne cache pas non plus que le ver est dans le fruit, puisque les bébés âgés d’à peine six mois témoignent déjà d’une préférence marquée pour ceux qui leur ressemblent, que ce soit par le choix d’une friandise ou la couleur de leurs vêtements. La « bonté innée » de l’être humain serait donc très vite contrariée par la tentation tout aussi innée de privilégier des liens et des préférences avec ceux qui nous paraissent semblables à nous. Un choix évidemment excluant pour ceux qui sont « les autres ». Au point même d’inverser complètement notre attitude mentale par rapport à ceux que nous voyons souffrir. Le supporter d’un club de rugby qui voit un collègue recevoir une décharge électrique présente une activation de la même zone cérébrale dédiée à la douleur que la victime ; mais s’il voit souffrir pareillement un supporter de l’équipe adverse, c’est la zone cérébrale dédiée au plaisir qui s’active chez lui !

De l’empathie à l’altruisme

Mais l’intérêt de ce film n’est pas de faire un état des lieux. Il est de montrer que développer l’altruisme est possible à tout âge et que nous devrions tous nous y employer. Or l’altruisme a un précurseur indispensable, c’est l’empathie. Et c’est là que, dans la démonstration de Sylvie Gilman et Thierry de Lestrade, tout se brouille et s’embrouille.
Il est en effet admis par la grande majorité des chercheurs que l’empathie a deux composantes, la première affective, qui apparaît vers l’âge de un an, et l’autre cognitive, qui apparaît vers quatre ans et demi. L’empathie affective est un système intuitif au fonctionnement rapide et automatique qui apparaît dès la première année de la vie et qui permet de se concentrer sur l’émotion d’autrui au point de l’éprouver soi-même sans se confondre avec lui. Il s’agit donc d’une forme de résonance émotionnelle. Au contraire, l’empathie cognitive est un système lent, délibératif et conscient dans lequel il ne s’agit plus de ressentir les émotions d’autrui, comme dans le stade précédent, mais de comprendre son point de vue en prenant en compte ses différences. Cette posture nécessite d’intégrer un à grand nombre d’informations, comme le caractère de l’autre, ses conditions de vie, ses particularités culturelles, etc. Cette prise de perspective cognitive est parfois nommée « compréhension empathique ». Mais ces deux composantes ne suffisent pas à créer l’empathie complète. Comme l’a bien montré Martin Hoffman (2008), l’empathie affective risque toujours de faire éprouver les douleurs d’autrui comme si c’était les siennes propres, au point de rendre incapable de lui porter secours. Et inversement, l’empathie cognitive risque toujours d’être utilisée pour manipuler notre interlocuteur grâce à la compréhension que nous en avons. Ce qui est essentiel, c’est la capacité de les articuler l’une à l’autre, de passer sans cesse de l’une à l’autre et de tempérer les dangers de l’une par les vertus de l’autre. Cette « empathie mature », comme l’appelle Martin Hoffman, rend possible le fait de se mettre émotionnellement à la place de l’autre, préfigurant la capacité altruiste. C’est aussi ce que montrent les travaux de Jean Decety, neuroscientifique spécialisé dans la compréhension des bases cérébrales de l’empathie,.

Le choix bouddhiste

Mais dans le film de Sylvie Gilman et Thierry de Lestrade, aucune place n’est faite à cette empathie cognitive. Et pour cause. Les auteurs ont décidé de s’en tenir à l’école de pensée incarnée par Matthieu Ricard et Tania Singer, qui exerce à l’institut Max Planck de Leipzig. Pour cette autre spécialiste des neurosciences, utiliser le mot d’empathie pour désigner à la fois l’empathie affective et l’empathie cognitive serait une hérésie scientifique dans la mesure où ces deux capacités correspondent à des zones cérébrales différentes, et qu’il serait donc impossible de désigner les fonctions mentales qui s’y déroulent par le même mot. Pourtant, il n’est pas rare que des fonctions mentales relevant de zones cérébrales différentes portent le même nom, évidemment assorti d’adjectifs différents : pour s’en tenir à un seul exemple, il est courant aujourd’hui de parler d’intelligence musicale, d’intelligence visuo spatiale, d’intelligence mathématiques, etc. sans qu’aucun scientifique ne soit choqué. C’est donc qu’il faut chercher ailleurs l’origine du choix de Tania Singer. C’est du côté du bouddhisme que nous en trouvons la raison. Dans la représentation du monde développée par celui-ci, « l’empathie » s’oppose à la « compassion ». Mais ces deux mots ont une définition bien particulière. La compassion bouddhiste n’a en effet rien à voir avec ce que nous désignons sous le même mot dans la tradition latine et anglo-saxonne. Prenons le dictionnaire Petit Robert. Il définit la compassion comme un « sentiment qui porte à plaindre et partager les maux d’autrui », ce qui signifie qu’elle appartient totalement à la dimension affective du sens de l’autre, avec le risque de détresse émotionnelle qui s’attache à celle-ci. Mais pour les bouddhistes tibétains, le mot a un sens différent. Il s’agit de la faculté mentale qui permettrait d’entourer la représentation que l’on se fait de la victime d’une sorte de halo altruiste facilitant la relation d’aide sans courir le risque de la contagion émotionnelle. Quant à l’empathie, elle est réduite par les bouddhistes à sa seule dimension affective, avec le risque de confusion et d’épuisement émotionnel qui s’ensuit.

Compassion contre empathie

Du coup, pour Matthieu Ricard et Tania Singer, le modèle ternaire habituel, avec ses trois niveaux d’empathie affective, d’empathie cognitive et d’empathie mature, est remplacé par un autre modèle à deux dimensions seulement. Dans ce modèle, l’empathie est réduite à sa composante affective, avec la menace de basculer dans la contagion émotionnelle paralysante et déstructurante. Tandis que la compassion associe la conscience de la souffrance de l’autre avec le désir de faire quelque chose pour son bien, mais sans pour autant forcément ressentir la souffrance de l’autre comme c’est le cas dans l’empathie. Et les auteurs concluent en opposant la « mauvaise empathie » qui conduit au Burn out émotionnel, à la « bonne compassion » qui associe prise de distance et désir de venir en aide.
Ce bouleversement sémantique est bien illustré par la façon dont Matthieu Ricard a repris dans ses publications récentes les travaux de Charles R. Figley (2002) sur le Burn out des soignants en inversant exactement les termes dans lesquels celui-ci en parle. Pour Figley, il existe une « fatigue de compassion » (Compassion Fatigue) dont il propose de sortir en développant la capacité d’empathie, dans la mesure où celle-ci associe à la composante émotionnelle une composante cognitive qui permet de prendre du recul par rapport à la situation. A l’inverse, pour Matthieu Ricard, le Burn out des soignants est attribué à l’empathie elle-même, et il propose comme remède la « compassion ». Chacun utilise les mots comme il l’entend, mais c’est faire bien peu de cas de la capacité de compréhension de ceux qui s’intéressent à l’empathie que de ne s’être jamais soucié de leur expliquer cette inversion sémantique incroyable !

De la compréhension de l’autre

La conséquence en est que le film de Sylvie Gilman et Thierry de Lestrade ne nous montre rien sur la manière dont l’empathie cognitive pourrait être utilisée pour développer le sens de l’autre et l’altruisme. A aucun moment, il n’est question d’encourager la compréhension du fait que l’autre a des façons de penser, de ressentir et de vivre différentes des miennes, et qu’il peut non seulement éprouver d’autres émotions que moi dans les mêmes situations, mais aussi les mêmes que moi en relation avec d’autres états mentaux. L’essentiel est d’encourager dès l’enfance des formes de visualisation océanique dans lesquelles chacun est invité à se laisser pénétrer par les énergies positives avec leurs pouvoirs et leur sagesse. Finalement un peu comme le nouveau-né baigne dans la bienveillance maternelle... Il est certain que ces méthodes de relaxation et/ou de méditation de pleine conscience ont des effets positifs sur la régulation des émotions, et donc sur la capacité de mieux vivre ensemble avec ceux qui nous sont proches. Mais ont-elles des effets positifs plus importants que d’autres méthodes qui encouragent le croisement et l’interpénétration de l’empathie affective et de l’empathie cognitive ? Et ont-elles des effets sur la curiosité vis-à-vis de l’autre ? Ce serait une grave erreur de ne pas poser cette question, car il en va du choix des programmes grâce auxquels on peut espérer, dans les années qui viennent, développer l’empathie et l’altruisme chez tous les enfants, exactement au même titre que l’aptitude à la lecture et au calcul. Et il serait dangereux de ne pas se préoccuper de la place que peut y prendre la compréhension de l’autre.

Catégories

Actualités

Adolescence

culture

education

Jeux vidéo

Nouveaux médias

Archives