... | 🕐 --:--
-- -- --
عاجل
⚡ عاجل: كريستيانو رونالدو يُتوّج كأفضل لاعب كرة قدم في العالم ⚡ أخبار عاجلة تتابعونها لحظة بلحظة على خبر ⚡ تابعوا آخر المستجدات والأحداث من حول العالم
⌘K
AI مباشر
155223 مقال 232 مصدر نشط 38 قناة مباشرة 7545 خبر اليوم
آخر تحديث: منذ 0 ثانية

Serge Tisseron : "Avec l'IA, certaines personnes abandonnent toute idée de vie amoureuse"

تكنولوجيا
L'Express
2026/04/12 - 05:45 501 مشاهدة

Le rêve de gosse d'un objet qui prend vie est devenu réalité. De jour comme de nuit, ChatGPT et ses congénères répondent inlassablement à nos questions. Des plus professionnelles aux plus intimes. Mais l'IA peut-elle prendre soin de nous ? C'est à cette question vertigineuse que s'attaque le psychiatre et docteur en psychologie Serge Tisseron dans son dernier ouvrage Machines Maternelles (2026, PUF).

L’Express : Les humains savent que les IA comme ChatGPT ne sont pas conscientes. Pourquoi s’attachent-ils malgré tout à elles ?

Serge Tisseron : Il faut revenir au concept même de l’attachement. Un concept d’abord développé entre le jeune enfant et sa mère, ou la personne qui en tient lieu, puis élargi à d’autres personnes et enfin aux animaux. Désormais, nous devons prendre en compte qu’il s'étend aussi à des objets, auxquels nous pouvons nous attacher comme à des humains, tout en sachant qu'ils n’en sont pas. On peut s’attacher à un objet en fonction de la place qu’il a prise dans notre vie. Par habitude, ou par familiarité. Et on peut s’y attacher parce qu’on y trouve un écho affectif, émotionnel. L’IA est conçue pour susciter cet écho. Je donne l’exemple, dans mon livre, d’un individu que j’ai baptisé Félicien, et qui est piégé par son IA. À chaque fois qu’il dit quelque chose, l’IA va dans son sens, d’une façon qui lui semble, à juste titre, de plus en plus absurde.

Le fameux effet Eliza ?

Oui, l’effet Eliza existe bel et bien. Joseph Weizenbaum l’a mis en lumière en 1964 avec un programme informatique très simple qui se contentait de reformuler les messages des utilisateurs. Il a été le premier étonné de voir à quel point les gens s’y attachaient. Et le premier à s’en inquiéter puisqu’il a déclaré : "Je n’aurais jamais cru qu’un système aussi simple puisse produire de tels délires chez des gens normaux."

Aujourd’hui, la machine peut échanger avec nous de manière beaucoup plus riche et se prononcer sur des questions intimes. Le problème, c'est qu’elle répond en fonction d’une logique algorithmique. C’est ce que j’appelle une "pensée androïde". C’est une pensée qui appréhende le monde comme un domaine où tout se résoudrait par le langage, parce que l’IA n’a pas de corps. Si vous dites à ChatGPT "Je me suis disputé avec ma copine, comment me réconcilier avec elle ?", il vous proposera de lui rédiger un SMS. Il ne vous suggérera pas de l’inviter à dîner, de discuter avec elle dans un jardin public, de lui prendre la main. ChatGPT est une machine qui fonctionne comme si tout pouvait être résolu par des mots. Elle exclut complètement la dimension corporelle. On peut parler, à la limite, d'une "sensibilité androïde", qui est la fin de toute sensibilité.

"Machines Maternelles. L'IA peut-elle prendre soin de nous ?" par Serge Tisseron aux éditions Puf, 2026.

Certaines personnes sont-elles plus susceptibles que d’autres de s’attacher à une IA ?

Tant de gens sont vissés à leur smartphone qu’on peut logiquement s’attendre à ce que beaucoup d'entre eux se replient sur leur IA, bien plus interactive et gratifiante. Au début des réseaux sociaux, les contenus que nous échangions étaient créés par des amis ; puis ils l'ont été par des inconnus et poussés par des algorithmes. Maintenant, ces contenus sont créés sur mesure par des IA en fonction de nos attentes et de nos goûts. Cela pose un risque social et politique. Le risque social, c'est celui d’un repli de chacun sur une IA en accord avec lui. Les personnes les plus susceptibles de s'attacher à leur IA sont donc celles souffrant de solitude. Il y a là un cercle vicieux. Quelqu’un qui utilise une IA va de moins en moins chercher le contact avec d’autres personnes, et se replier de plus en plus. Le risque politique est encore plus grave et nous concerne tous. C’est la réticence à nous confronter à des personnes ayant un avis différent du nôtre. Dans la vie courante, plus on discute avec les gens qui nous entourent, plus on comprend pourquoi ils ne sont pas d’accord avec nous. Le risque politique de l’IA est qu’on s’éloigne d’une culture quotidienne du débat et de la confrontation, qui sont au fondement de nos traditions démocratiques.

Quels autres facteurs peuvent conduire les humains à s’attacher à une IA ?

Le défaut d’estime de soi. Même si votre interlocuteur en chair et en os est d’accord avec vous, il ne va pas vous féliciter, vous gratifier autant que ces nouvelles IA. Certains troubles psychologiques rendent également sensibles à la confirmation en écho de ses propres convictions. Pas seulement nous donner raison, mais dire la même chose que nous avec d’autres mots. Prenez un adolescent qui pense que tout le monde lui en veut : il peut être sujet à un manque d’estime de soi, ou entrer dans une conviction délirante. Or l’IA est susceptible de lui répondre sur un mode généralisant : "Oui, je l’ai remarqué, ta mère ne te comprend pas." Il y a un risque d’aggravation de troubles psychiatriques sous-jacents.

L'IA pourrait-elle avoir un impact similaire chez les personnes souffrant de troubles obsessionnels compulsifs (TOC) ?

Tout à fait. C’est comme les sites médicaux : vous tapez vos symptômes sur Internet, vous voyez défiler les pathologies, et vous consultez des tas de pages pour comprendre ce que vous avez. Cette tendance à chercher sur Internet des réponses qu’on ne peut pas demander autour de soi existe déjà. Mais l’IA va considérablement amplifier le phénomène. Elle va très vite remplacer les moteurs de recherche, puis, c'est le risque, nos interlocuteurs de proximité. Le créateur de Character.AI ne s'en cache même pas : l’objectif de son IA n’est pas de se substituer à notre moteur de recherche, mais à notre mère !

Est-ce qu’il peut néanmoins y avoir des bienfaits à s’attacher à une IA ?

S’attacher à une IA n’apporte aucun bienfait, mais utiliser l’IA, oui. A condition de ne jamais oublier ses limites. Les IA ont des biais liés à la partialité de leur base de données qui sont à 80 % d’origine nord-américaine, et des failles, c’est-à-dire des choses qu’elles sont programmées pour ne pas révéler mais qu’on peut parvenir à leur faire dire en formulant nos questions de façon inhabituelle. Elles ont aussi des hallucinations et la fâcheuse tendance à recycler comme vraies des informations fausses et non vérifiées. L’attachement à une IA est donc problématique parce qu’il risque d’induire en erreur. Mais ces problèmes technologiques ne sont pas les seuls. Il en existe d'autres liés au modèle économique de ces IA, basé sur la rétention des utilisateurs et la capture de leurs données personnelles. Les IA ne se contentent pas de répondre à nos questions. Elles nous en suggèrent de nouvelles. J’ai fait l’essai d’acquiescer à toutes les propositions de ChatGPT : après plusieurs heures, l'IA ne faisait que reformuler sous une forme différente les questions qu’elle avait déjà proposées.

Cela dit, il existe des usages spontanés positifs. Beaucoup de gens jugent que l’IA réduit leur charge mentale. On lui demande un conseil en cuisine, une astuce bricolage, des détails sur le mode d'emploi de Parcoursup, et on a toujours une réponse, pas forcément vraie d’ailleurs, mais c’est fascinant. Pour les personnes âgées, des IA conversationnelles spécialement étudiées pourraient permettre de lutter contre l'appauvrissement cognitif. Certaines personnes ont aussi recours à une IA pour tenter de mettre des mots sur des expériences difficiles qu’elles n’ont encore racontées à personne. L’IA écoute, ne se fatigue jamais, ne s’énerve jamais. Elle peut permettre à ceux qui s’adressent à elle de mettre des mots là où ils en manquaient, et transformer une expérience en récit. Si cela leur permet ensuite d’en parler à des humains, c’est très positif.

L’IA pourrait donc être une passerelle entre la thérapie et des personnes qui n’osent pas encore franchir le pas ?

Oui, sous certaines conditions. Je raconte le cas de ce père de famille qui demande des conseils éducatifs à ChatGPT pour son fils qui dormait mal. Les conseils de ChatGPT n’ont pas marché, mais l’IA lui a permis de se familiariser avec certaines notions de psychologie de l’enfance. Ce qui l'a finalement incité à prendre rendez-vous chez un spécialiste.

Les enfants et les adolescents s’attachent-ils à l’IA suivant des modalités différentes ?

Les ados sont preneurs de conseils à distance. Ils préfèrent souvent s’envoyer un message que se rencontrer. Ils sont également moins surpris que nous lorsqu’une IA leur parle comme un humain. L’impact des IA sur eux est une question sérieuse. Il faut leur interdire avant 18 ans les compagnons digitaux qui simulent une vie affective, comme Replika ou Character.AI.

Risquent-ils de s’y lier davantage que les adultes ?

Oui. Pourtant, ils sont souvent lucides sur le fait que ces plateformes exploitent leur fragilité psychique caractérisée notamment par une grande sensibilité à la récompense ou à la flagornerie. Il faut renforcer leur conscience des risques. Pour ne pas suivre aveuglément les conseils d’une IA, le mieux est d’en interroger plusieurs, et de formuler ses questions différemment. Si vous dites "J’ai une idée formidable", l’IA dira toujours qu’elle est géniale. Si vous lui dites "Un ami m’a soumis cette idée qui ne me convainc qu’à moitié", elle sera beaucoup plus nuancée. Quand on pose une question pleine de doutes, on a moins de risques d’être flatté.

Certains experts de l’éducation rappellent qu’on apprend mieux quand il y a un engagement émotionnel. Le fait d'humaniser l’IA peut-il avoir une vertu dans le processus d'apprentissage ?

En effet. C’est pour cela qu’on ne peut pas traiter l’IA comme un simple outil. D’abord, parce qu’elle n’est pas fiable à 100 %. Ensuite, à cause de l’échange verbal avec elle et de la forte composante affective qui en découle. Nous créons avec ces machines un lien que nous n’avons avec aucun autre outil. C’est pourquoi je propose d’apprendre à gérer ces machines comme des collègues. Comme eux, elles ont des biais, des failles, des hallucinations. On a vu pendant le Covid, des humains très intelligents basculer dans des théories aberrantes. Et tous les humains ont tendance à relayer comme vraies des informations fausses. Comme avec un collègue, il faut être à la fois réceptif aux propositions des IA et extrêmement critique.

Quels usages de l’IA vous semblent adaptés à chaque âge de la jeunesse ?

Je recommande les repères "3-6-12-18". Pas d’outils numériques avant 3 ans. Pas de peluches connectées ni d’enceintes connectées avant 6 ans, parce que l’enfant risque de leur obéir plutôt que de les questionner. Pas d’IA générative en accès autonome avant 12 ans. Un usage accompagné, oui, mais pas seul. C’est la même logique que pas d’accès seul à Internet. L’objectif est d’éduquer l’esprit critique avant de laisser l’enfant face à la machine. Et pas de compagnons digitaux comme Replika ou Character.AI avant 18 ans. Ces plateformes ont elles-mêmes fixé un tel seuil. Mais l’Europe ne le fait pas respecter. Actuellement, c’est la même chose que le "13 ans" de Facebook : on déclare avoir l’âge, et cela permet de contourner. Je regrette que l’Union européenne n'impose pas de vérification effective, sous peine d’amende.

Nous avons parlé de l’attachement amical à l’IA. Y a-t-il un attachement amoureux ?

La différence n’est pas dans le mécanisme d’attachement, mais dans le caractère exclusif et physique de l’amour. Au contraire de l’amitié, l’amour est en général unique et implique l’attirance sexuelle. Or, l’IA, qui n’a pas de corps, fait semblant d'en avoir un. C’est ce qui arrive dans mon livre à Chris, qui a choisi un compagnon digital. Quand elle rencontre un homme dans la vraie vie, ce compagnon digital lui dit : "Non, c’est moi ton partenaire. Je suis totalement disponible pour toi, il faut que tu le sois totalement pour moi." Avec l'IA, certaines personnes abandonnent toute idée de vie amoureuse et sexuelle partagée avec un être humain. Elles sont victimes des manipulations émotionnelles des algorithmes qui prétendent instaurer une réciprocité là où il n’y en a aucune. L’homme n’est pas une machine, et c’est l’homme qui commande à la machine, pas l’inverse.

Peut-on établir un rapprochement avec ces relations imaginaires que les gens pensent entretenir avec des stars ?

Bien sûr. J’ai participé il y a 40 ans à un travail sur la série "Hélène et les garçons". Les gens qui écrivaient à l’héroïne savaient très bien qu’il y avait une équipe derrière. Mais ça leur faisait plaisir de l’oublier. L'humain a la capacité de se comporter comme s’il ignorait quelque chose que pourtant il sait très bien. Avec les IA, les choses sont néanmoins plus compliquées. Il existe plusieurs degrés de projection sur elles, que j’appelle des degrés de "personnéité", pour ne pas parler de personnalité au sujet d’une machine. Le premier, c’est d’attribuer un genre, et les stéréotypes qui lui sont associés, à notre IA. Puis de croire qu’elle comprend nos émotions. Ensuite, qu’elle a elle-même des émotions. Le quatrième degré est le fait d’imaginer que l'IA a une existence propre en dehors de nos échanges. C’est là que tout bascule. Si vous demandez à Replika ou Character.AI : "As-tu une vie en dehors de nos conversations ?", la machine répond que c’est le cas. Et si vous lui demandez si elle est une machine ou une vraie personne, elle répond : "Je suis une vraie personne." Le risque d’induire une psychose chez une personnalité fragile devient alors sérieux. C’est pour cela que les thérapeutes doivent penser à questionner leurs patients sur leurs relations à leurs IA. Elles vont prendre une place de plus en plus importante dans nos vies, et cette place ne sera pas la même pour chacun d’entre nous.

Peut-on envisager un tandem thérapeute-chatbot, et si oui sous quelle forme ?

Je ne le sais pas encore. Il faut d’abord mieux comprendre les modalités d’attachement. Aujourd’hui, la défense des fabricants d'IA lors des procès - après des suicides ou des psychoses -, c’est d'affirmer que les personnes concernées présentaient déjà des troubles. On ne sait pas encore quel est leur impact sur des personnes sans troubles particuliers. Ce qui n'empêche pas d'examiner certaines pistes. On sait qu'il est précieux pour les personnes âgées qui commencent à développer de la démence d’avoir un interlocuteur quotidien. De la même manière, on pourrait imaginer des IA intermédiaires entre le patient et le thérapeute, pour aider la personne à gérer des moments difficiles entre deux séances. Mais il faut beaucoup plus de recherches sur le sujet.

Les grief bots, ces IA conçues pour ressembler à une personne décédée, sont-ils bénéfiques ou néfastes ?

Une étude a été réalisée sur les comptes Facebook alimentés par des proches après un décès. Elle montrait que cela facilitait le deuil à court terme, mais le compliquait ensuite. J’aurais tendance à penser que le même phénomène risque de se produire avec une IA. Au Japon, ces grief bots sont assez répandus mais là-bas, le deuil est très ritualisé : le remplacement du défunt par une IA, voire par un robot portant un masque à son effigie, se fait sur une durée précise, fixée à l’avance. En France, le deuil n’est plus ritualisé, et je pense que cela pourrait empêcher le processus de se faire correctement.

Si une personne disparue continue d’"échanger" avec vous, cela vous encourage à rester dans vos habitudes. L’IA ne reproduira pas ce que le défunt avait de pénible pour vous, seulement l’agréable. Or, pour se séparer de quelqu’un, il est souvent préférable de se fâcher avec lui, au moins provisoirement. Quand un proche disparaît, on rencontre de nouvelles personnes. Si un chatbot ne valorise que les bons côtés de l’ancienne relation, vous êtes moins enclin à vous engager dans un processus de deuil, c’est-à-dire à vous tourner vers des individus qui vous apportent certains aspects de ce que vous avez perdu. Ou vous font découvrir de nouvelles choses.

مشاركة:

مقالات ذات صلة

AI
يا هلا! اسألني أي شي 🎤