Accès gratuit
Numéro
psychologie clinique
Numéro 49, 2020
Cyberpsychologie et Cyberpsychanalyse
Page(s) 7 - 15
DOI https://doi.org/10.1051/psyc/202049007
Publié en ligne 23 juin 2020

© Association Psychologie Clinique 2020

Depuis que l’homme fabrique des outils, il ne cesse de se transformer luimême et de transformer sa relation au monde et aux autres en les utilisant (Tisseron, 1998). Mais cet aspect de son activité a été longtemps ignoré (Ades et coll., 2019). Or, aujourd’hui, le développement de l’intelligence artificielle et de la robotique donne à ces questions une dimension totalement nouvelle. Nous passons d’un monde dans lequel la machine n’est plus appréciée pour ses qualités propres, comme la fiabilité et la régularité, à un autre dans lequel elle va être de plus en plus présentée en exemple pour son désintéressement, sa gentillesse, voire son humour et son esprit d’à-propos. Dans les laboratoires, on y travaille déjà. On dira ces machines « autonomes », et chacun sera invité à le croire.

Des questions éthiques et législatives complexes vont évidemment s’imposer, mais aussi des questions inédites en psychologie, comme de savoir comment les humains vont évoluer pour s’adapter à ces nouveaux objets qui ne seront ni tout à fait des machines, ni évidemment des humains, malgré de fortes analogies. Ces questions concernent tous les domaines : professionnel bien entendu, mais aussi familial et intime. Verra-t-on thérapeutes de couple humain-machine comme on voit aujourd’hui des thérapeutes des interactions complexes et ambiguës que certains propriétaires d’animaux domestiques nouent avec ceux-ci ?

Pour y répondre, nous devons créer un dialogue entre deux modèles de connaissance jusqu’à présent disjoints, celui de l’ingénierie d’un côté, et celui des sciences humaines de l’autre. Il s’agit même du défi majeur que partagent ces deux disciplines : pour la première, penser les technologies non plus seulement du point de vue de leurs performances propres, mais du point de vue de l’expérience banale et quotidienne qu’en ont leurs utilisateurs; et pour les secondes, penser la relation de l’homme à ses technologies non plus seulement du point de vue de la façon dont elles pourraient l’amoindrir ou l’aliéner, mais d’abord et avant tout de la façon dont il s’adapte à elles de façon souvent inattendue. Les robots développeront de nouvelles manières d’être au monde qui ne constitueront pas forcément de nouvelles pathologies, et peut-être même certaines d’entre elles devront-elles être envisagées comme de nouvelles formes de normalités. On peut par exemple imaginer qu’à terme, des souffrances liées à la solitude affective ou sexuelle, ou au deuil, puissent être compensées par des machines. Autrement dit, bien loin de voir dans ces technologies souvent déroutantes de nouvelles occasions possibles de pathologie, il nous semble essentiel de comprendre comment de nouvelles formes de rapport à soi, au monde et aux autres sont en train de s’installer. Ce nouvel espace d’interrogations est celui de la cyberpsychologie (Tisseron, 2018).

Et pour cela, nous proposons de penser l’intrication des capacités humaines d’un côté, et des possibilités technologiques de l’autre, dans une logique interactionniste, systémique et circulaire. Cela nécessite de prendre en considération non seulement les déterminants individuels et les propositions technologiques, mais aussi le contexte et les interactions complexes de l’ensemble de ces déterminants. Cinq domaines au moins doivent être pris en compte :

  • Les propriétés technologiques de chaque objet qui imposent leurs contraintes propres à leurs utilisateurs.

  • Les caractéristiques individuelles et traits de caractère de chacun, comme une personnalité évitante ou narcissique.

  • Les troubles préexistants comme l’anxiété, les symptômes dépressifs, et les cognitions inadaptées qui peuvent conduire certaines personnes à surévaluer les comparaisons sociales qui leur sont défavorables et à ignorer celles qui leur sont favorables.

  • Les éléments contextuels liés à la situation de communication et à ses enjeux qui jouent un rôle d’autant plus important qu’il est souvent imprévisible.

  • La façon dont les entreprises qui fabriquent ces objets influencent les jugements des consommateurs. Nos relations individuelles aux objets technologiques ne s’organisent en effet pas seulement en fonction de leurs caractéristiques, de notre personnalité, des difficultés éventuelles que nous rencontrons et de la situation, mais aussi en fonction des messages publicitaires qui conduisent beaucoup d’entre nous à envisager les choses de la façon qui arrange le mieux leurs fabricants.

L’ensemble de ces éléments entre parfois en synergie, et d’autres fois en opposition. Les valeurs diffusées par les nouvelles technologies peuvent notamment entrer en conflit, ou en symbiose, avec le système de valeurs dominant dans une société. Cette symbiose peut parfois produire le meilleur, mais aussi d’autre fois le pire1. En 2018, j’ai précisé sous forme d’abécédaire les multiples domaines de la psychologie bouleversés par les progrès technologiques (Tisseron, 2018). Dans ce qui suit, nous allons prendre le problème de façon plus synthétique et tenter de cerner les principaux concepts autour desquelles pourrait s’organiser, dans les années qui viennent, la relation que l’homme entretiendra aussi bien avec lui-même et ses semblables qu’avec les objets technologiques. Nous en avons trouvé cinq : l’empathie dans les multiples définitions possibles de ce terme, qui oblige à envisager un nouveau statut possible pour les émotions; l’anthropomorphisme avec son frère cadet, l’animisme, oblige à penser non plus la « personne » selon une opposition de présence et d’absence, mais de degrés de « personéité »; l’intimité, avec son inévitable corolaire, l’extimité (Tisseron, 2001), qui sera très bientôt annexée par nos chatbots et autres robots conversationnels; l’autorégulation, à fois encouragée et empêchée par des technologies numériques, de telle façon qu’elle devient un enjeu civilisationnel majeur; et enfin le double mouvement d’externalisation de nos capacités somato-psychiques dans des machines, et de ré-intériorisation de celles-ci dans notre biologie même, selon un processus que nous appelons d’exencorporation.

Ces cinq concepts ont pour point commun de nous être utiles pour comprendre à la fois le fonctionnement psychique de l’être humain aux prises avec son environnement, et les principaux ressorts de l’innovation technologique. Il s’agit donc pour nous de concepts intermédiaires, susceptibles de faire pont et lien entre deux domaines traditionnellement considérés comme totalement étanche un à l’autre : le fonctionnement mental de l’être humain dans la relation avec ce qui l’entoure, dont ses semblables font partie, mais pas seulement; et le fonctionnement des objets technologiques tels qu’ils se présentent en réalité, ou bien tel que l’être humain l’imagine lorsqu’il entre en relation avec eux.

Premier concept : l’empathie

La première définition de l’empathie a été posée au XIXe siècle lorsque Théodore Lipps (Lipps, 1903) tente de fonder une psychologie sur le corps, et plus précisément sur la tendance de tout humain à imiter les gestes et à éprouver les émotions de ses semblables. L’importance donnée au langage en psychologie, notamment sous l’impulsion de Freud, l’a fait tomber en désuétude, et le mot s’est finalement retrouvé dans le domaine de l’esthétique. Revenu à la mode à la fin des années 1990, il a désigné la faculté de se représenter les états mentaux d’autrui et de se projeter dans un corps différent du sien (Tisseron, 2010). Elle fait aujourd’hui l’objet de nombreuses études, tant dans le domaine de l’organisation familiale (Lorenceau et coll., 2015) que professionnel (Triffaux et coll., 2019). Mais comment pourrions-nous être empathiques pour un objet qui, par définition, n’a pas d’état émotionnel ? Nous le sommes, bien sûr, par ceux que nous lui imaginons. Le choix d’un corps humain n’est alors qu’une option, la capacité de se projeter dans le « corps » d’un objet en offre de multiples autres. Le mot a ainsi été rapidement utilisé pour désigner la capacité d’élargir les perceptions corporelles au dispositif que nous utilisons, comme par exemple une automobile. Un bon conducteur élargit ses limites corporelles à celle de son véhicule de façon à percevoir exactement l’encombrement de celui-ci. Avec le développement des technologies numériques, cette définition n’a plus seulement touché les objets physiques, comme les moyens de transport personnel, mais elle s’est étendue aux objets de nos écrans (Tisseron, Tordo, 2013). Les joueurs de jeux vidéo of line établissent une relation empathique avec leur avatar, élargissent les limites de leur Moi aux caractéristiques de ceux-ci, et éprouvent comme personnelles les joies et les peines que ces personnages rencontrent dans leurs quêtes. Avec le développement d’Internet et des jeux en ligne, il est également devenu possible d’éprouver diverses formes d’empathie avec les avatars d’autres joueurs (Tisseron, Tordo, 2013). Aujourd’hui, cette capacité s’est élargie à l’ensemble des créatures présente sur les réseaux numériques. La réalité virtuelle accentuera considérablement cette capacité à des situations inconnues, et pourra être mise au service de nombreuses causes2.

Enfin, dernière évolution en date, depuis le début des années 2000, le mot a été attribué aux machines elle-même : un robot dit « empathique » ou encore « émotionnel » est capable de percevoir les émotions humaines (Tisseron, 2015). C’est évidemment un abus de langage. Aucune machine, et pour bien longtemps encore, ne sera capable d’éprouver des émotions, et encore moins de vivre la construction complexe, à la fois émotionnelle et cognitive, que représente l’empathie (Berthoz et Jorland, 2004). Mais cela n’empêchera pas certains humains de l’imaginer, d’autant plus que les fabricants de robots conversationnels et de compagnie font tout pour manipuler les comportements affectifs dans les relations entre robots et humains. Cette évolution pourrait suggérer d’abandonner la conception traditionnelle des émotions pour une nouvelle. Cette conception traditionnelle voit les émotions comme une caractéristique du vivant et les associe à trois critères. Tout d’abord, les émotions sont internes à la vie psychique; ensuite, elles sont de l’ordre de la vie privée; enfin, elles sont « discrètes », c’est-à-dire qu’elles obéissent à la loi du tout ou rien : elles sont soit « présentes », soit « absentes ». Mais les progrès de l’intelligence artificielle pourraient bien nous obliger à repenser les émotions. Elles seraient vues comme un mécanisme continu, qui ne serait pas caractéristique de l’humain, et qui interviendrait comme un ciment social entre des éléments en proximité physique, pouvant relever de la même catégorie ou de catégories différentes. L’émotion ne serait plus intime, elle serait sociale. Elle ne serait pas « chez », elle serait « entre ». Et elle pourrait relier entre eux des êtres humains, mais aussi des animaux ou des objets matériels comme des robots.

Deuxième concept : l’animisme

Le lancement des Tamagotchis, à la fin des années 1990, l’a montré clairement (Tisseron, 2000). Ces jouets demandaient à être nourris, promenés, lavés, et certains utilisateurs – d’ailleurs plus souvent des adultes que des enfants – se sont imposé cette contrainte ! Cet exemple montre que dans une culture comme la nôtre où la distinction entre un être vivant et un objet semble posée sans contestation possible, il suffit de très peu de choses pour qu’une machine extrêmement simple puisse bénéficier de formes d’attention en principe réservées à des êtres vivants. Il y a toujours une part de magie dans nos relations aux technologies (Kaplan, 2001) ! Dans le même ordre d’idée, il a été montré que si un ordinateur supplie son propriétaire de le laisser allumé, celui-ci hésitera même s’il est conscient de l’artifice : 13 personnes sur 85 testées ont refusé d’éteindre un robot programmé pour avoir cette attitude; les autres ont mis plus de temps, invoquant la peur de faire quelque chose de mal... ou même de déplaire à la machine (Horstmann et coll., 2018). Dans ces conditions, certaines personnes hésiteraient même à sacrifier des robots pour sauver des vies humaines, y compris lorsque ceux-ci n’ont pas du tout notre apparence (Sari et coll., 2019). Bref, le risque de glissement de l’anthropomorphisme à l’animisme guette beaucoup d’entre nous. Alors que dans l’anthropomorphisme, l’être humain projette sur un objet ses émotions, ses sentiments et ses pensées sans croire que celui-ci puisse les avoir en réalité, l’animisme consiste à croire que l’objet possèderait en réalité les caractéristiques qu’il lui prête, ou à s’imposer la contrainte de se comporter comme si c’était le cas (Descola, 2005).

Le risque animiste est d’autant plus grand que les entreprises qui fabriquent ces objets y voient un instrument de promotion marketing. En 2015, Google a déposé un brevet aux États-Unis pour des « jouets intelligents » (sic) capables de détecter une présence humaine dans une pièce, de tourner la tête pour établir un contact, d’identifier son interlocuteur par reconnaissance faciale, et même de comprendre ce que celui-ci lui dit et lui répondre par des phrases préenregistrées... en attendant mieux. Ces objets ne sont pas forcément réservés aux enfants. Ils peuvent en effet ressembler à un lapin ou un ours en peluche, mais aussi à un humain, une créature mythique ou un simple objet.

À tel point que l’importance donnée à l’anthropomorphisation des objets communiquant pourrait un jour bouleverser la notion de « personne ». Les anthropologues ont toujours insisté sur le fait que la définition des attributs « personne » ou « nature humaine » varie considérablement selon les sociétés étudiées. Autrement dit, ces catégories peuvent évoluer, et c’est évidemment ce qui va probablement arriver avec le développement de machine interactive qualifié de « émotionnelle » ou encore « empathique ». Gardons-nous pourtant d’aller trop vite. Certains utilisateurs d’objets numériques seront évidemment tentés d’attribuer aux objets dont ils sont les plus proches un certain degré de « personnalité », ou plutôt de « personéité ». C’est leur affaire, et cela relève de leur psychologie, voire de leur philosophie personnelle. Mais le législateur aurait bien tort de leur emboiter le pas. Attribuer officiellement et socialement à des machines une qualité de « personne », quel que soit le qualificatif restrictif associé à ce mot, n’est à mon avis pas souhaitable. Les risques de l’animisme au quotidien seront bien assez grands comme cela, avec des effets encore largement imprévisibles comme la tentation d’un propriétaire de machine de se mettre en danger pour sauver celle-ci. Il serait catastrophique que le législateur les aggrave en introduisant dans la loi une confusion entre les droits des personnes et ceux des robots.

Troisième concept : l’autorégulation

L’autorégulation est un concept essentiel de la cyber psychologie pour deux raisons au moins. Tout d’abord, le mot évoque des compétences reconnues comme essentielles à la fois aux humains et aux machines. L’auto-régulation a en effet toujours été valorisée dans les apprentissages humains, à commencer par les apprentissages manuels, avant d’être pointée comme une compétences cognitive majeure par les neurosciences au XXe siècle. Et en même temps, elle a été introduite dans les machines dès le XIXe siècle par l’ingénieur Watt qui a doté les machines à vapeur de régulateurs à boules, permettant ainsi la première révolution industrielle fondée sur la force motrice des machines. Quant à la seconde raison pour laquelle l’autorégulation est un concept central en cyber-psychologie, c’est que les capacités d’autorégulation des machines sont à la fois mises au service des capacités d’auto-régulation humaines, et utilisées pour les concurrencer, voire les rendre inopérantes. Autant dire qu’il s’agit d’un concept hybride, à cheval sur la psychologie et de la technologie, et propre à nous rappeler qu’il est essentiel de penser ces deux domaines en même temps.

Mais surtout, parmi les cinq concepts que nous proposons de revisiter à la lumière des liens nouveaux que nous établissons avec les machines interactives, celui-ci est le plus paradoxal de tous. Nous serons à la fois incités à plus d’autorégulation, et en même temps confrontés à des algorithmes conçus pour nous empêcher d’n être capables. En effet, d’un côté, ces machines empathiques vont permettre à ceux qui le désirent d’organiser de mieux en mieux leur vie en y introduisant diverses formes d’autorégulation. Elles pourront par exemple nous rappeler avec gentillesse que nous avons consommé la dose quotidienne de sucre que nous nous étions fixée ou que nous n’avons pas fait nos « 10 000 pas quotidiens ». Et elles feront cela de façon d’autant plus convaincante qu’elles seront connectées à d’autres outils capables d’enregistrer notre tension artérielle, notre rythme cardiaque, notre température, voire nos constantes biologiques. Autrement dit, ces machines permettront à leurs utilisateurs de s’auto réguler mieux que jamais dans les domaines où ils l’ont décidé. Mais en même temps, les robots conversationnels seront probablement programmés pour nous faire abandonner toute capacité d’autorégulation dans d’autres domaines ! Même si la façon dont ils s’y prendront n’est pas encore très nette, l’exemple des réseaux sociaux et l’évolution des jeux vidéo depuis deux ans montre que les fabricants d’objets numériques sont très soucieux de mettre au point des stratégies capables de rendre l’humain prisonnier de conduites dont il ne maîtrise plus le caractère répétitif. C’est ce qu’on appelle, parfois, addiction.

Quatrième concept : l’exencorporation

Nous ne le développerons pas car il fait l’objet d’un article du même numéro de la présente revue.

Cinquième concept : L’intimité, l’extimité

Le monde hyperconnecté dans lequel nous vivons a d’ors déjà modifié l’expression du désir d’extimité (Tisseron, 2016). Tout d’abord, l’aspect « mise en scène » du désir d’extimité n’a jamais été aussi présent que sur Internet, car tout se doit d’y être excessif, et de préférence positif. La pause, la retouche et le montage prennent le pas sur la réalité. Le désir d’extimité est en quelque sorte maquillé par la logique de la machine. Mais ces premiers bouleversements vont bientôt être transformés par une série d’autres autrement plus importants, organisés autour de la place que les robots conversationnels vont prendre dans nos vies.

Beaucoup seront heureux de trouver à tout moment un interlocuteur attentif capable d’accompagner leurs émotions et de manifester de l’intérêt à leurs petits tracas quotidiens. Bien sûr, certains vont immédiatement dénoncer l’incapacité de ces machines à tenir de « vraies » conversations. Mais pour beaucoup d’utilisateurs, il s’agira moins de « tenir une conversation » que de trouver une oreille attentive et surtout complaisante à leur désir d’extimité. Et dans la mesure où ces machines seront introduites dans le grand public avec aussi peu d’explications et de mise en garde que l’ont été les téléphones mobiles, nous assisterons probablement de la part d’un grand nombre d’utilisateurs au même enthousiasme béat que celui qui a accompagné l’apparition des Smartphones. Non seulement ces machines ne jugeront pas et ne condamneront pas nos actes et nos pensées, mais en plus elles seront conçues pour être gratifiantes en toutes circonstances.

Le désir d’extimité sera confisqué par les machines. La relation qui faisait de l’homme le possesseurs et maître de ses outils s’inversera. L’homme ne demandera pas seulement aux objets qu’il a lui-même fabriqués le chemin à suivre dans les domaines économique, militaire et technologique, mais il se mettra à attendre d’elles la reconnaissance narcissique qu’il a toujours attendu de son environnement humain. Les contes populaires ont déjà largement anticipé cette évolution : dans Blanche Neige, ce n’est pas à son mari, à ses courtisans ou à ses servantes que la méchante reine adresse sa demande de reconnaissance, mais à un objet, son miroir magique. Dans le conte, il faut croire que l’objet soit vraiment magique car il dit la vérité : « Reine, tu es belle, immensément belle, mais dans la forêt il y a une jeune fille plus belle encore que toi, c’est Blanche Neige ». Le problème est que nos objets technologiques n’auront probablement pas la même honnêteté, tout simplement parce qu’ils auront été programmés pour répondre aux attentes de reconnaissance de leurs utilisateurs. Et pour cause ! Ceux-ci seront en même temps leurs meilleurs clients. Avec leur fausse bienveillance fabriquée par leurs programmeurs, ces objets pourraient devenir l’ami du point de vue unique. Leurs utilisateurs risquent de se replier toujours plus sur leurs centres d’intérêts personnels, dans un discours qui tourne en rond. On a beaucoup parlé des œillères que nous imposent Google et Facebook en nous proposant sans cesse des activités et des divertissements callés sur nos choix du passé. Ce n’est rien comparé à celles que vont nous fabriquer nos chatbots, personnels ou familiaux. Et nous oublieront vite que ces machines seront dotées de la capacité d’enregistrer leurs paroles, pour ne pas dire tous leurs faits et gestes, et d’en nourrir les banques de données des immenses serveurs centraux que leurs fabricants se plaisent à nous faire imaginer sous la forme d’un léger nuage, le fameux « cloud ».

En conclusion, la mise au point d’outils de plus en plus capables de simuler les performances humaines ne soulève pas seulement des questions technologiques, économiques et politiques. Elle questionne aussi les psychologues et les psychiatres au cœur de leurs domaines d’investigation : les émotions, la capacité d’autorégulation, l’intimité, le statut du sujet et la construction de nouvelles identités métissées.


1

Notamment des technologies de surveillance massive des populations dans des dictatures, ou l’addiction dans les sociétés libérales.

Références

  1. Adès, J., Agid, Y., Bach, J.-F., Léna, P., Tisseron, S. (Rapport 19-04)L’enfant, l’adolescent, la famille et les écrans : appel à une vigilance raisonnée sur les technologies numériques, Bulletin de l’Academie Nationale de Medecine, 2019. [Google Scholar]
  2. Berthoz, A., Jorland, G. (2004) L’Empathie, Paris : Odile Jacob. [Google Scholar]
  3. Descola, P. (2005) Par-delà nature et culture, Paris : Gallimard. [Google Scholar]
  4. A.C. Horstmann, N. Bock, E. Linhuber, J.M. Szczuka, C. Straßmann, N.C. Krämer (2018) Do a robot’s social skills and its objection discourage interactants from switching the robot off ?, PLoS ONE, no 13 (7): e0201581. https://doi.org/10.1371/journal.pone.0201581 [CrossRef] [PubMed] [Google Scholar]
  5. Kaplan, F. (2001) La naissance d’une langue chez les robots, Hermès Science Publications. [Google Scholar]
  6. Lorenceau, E.S., Mazzucca, L., Tisseron, S., Pizitz, T.D. (2015) « A cross-cultural study on surrogate mother’s empathy and maternal-foetal attachment », Women Birth, no 28 (2), p. 154–9. doi:10.1016/j.wombi.2014.11.006. Epub 2014 Dec 3 [Google Scholar]
  7. Lipps, T. (1903) Aesthetic, Psychologie des Schônen und der Kuns, Leipzig. [Google Scholar]
  8. Sari, R.R. Nijssen, Barbara, C.N., Müller, Rick, B., Van Baaren, Markus Paulus (2019) « Saving the Robot or the Human ? Robots Who Feel Deserve Moral Care », Social Cognition, vol. 37, nO 1, pp. 41–52. https://doi.org/10.1521/soco.2019.37.1.41 [Google Scholar]
  9. Tisseron, S. (1998), Comment l’esprit vient aux objets, Paris : PUF, 2016. [Google Scholar]
  10. Tisseron, S. (2000), Petites mythologies d’aujourd’hui, Paris : Aubier. [Google Scholar]
  11. Tisseron, S. (2001), L’intimité surexposée, Paris : Hachette, 2002. [Google Scholar]
  12. Tisseron, S. (2010), L’Empathie au cœur du jeu social, Paris : Albin Michel. [Google Scholar]
  13. Tisseron, S. (2015), Le jour où mon robot m’aimera, Paris : Albin Michel. [Google Scholar]
  14. Tisseron, S. (2013), Subjectivation et empathie dans les mondes numériques, Paris : Dunod. [CrossRef] [Google Scholar]
  15. Tisseron, S. (2016), Intimité et extimité sur le net, Connexions 1 (no 105), p. 39–48. [CrossRef] [Google Scholar]
  16. Tisseron, S. (2018), Petit traité de cyber psychologie, Paris : Le Pommier. [Google Scholar]
  17. Triffaux, J.-M., Tisseron, S., Nasello, J.A. (2019), Decline of empathy among medical students, Dehumanization or useful coping process, L’Encéphale Volume 45, Issue 1February 2019, p. 3–8. [Google Scholar]

Les statistiques affichées correspondent au cumul d'une part des vues des résumés de l'article et d'autre part des vues et téléchargements de l'article plein-texte (PDF, Full-HTML, ePub... selon les formats disponibles) sur la platefome Vision4Press.

Les statistiques sont disponibles avec un délai de 48 à 96 heures et sont mises à jour quotidiennement en semaine.

Le chargement des statistiques peut être long.