Données & Intelligence Artificielle
Remplaceriez-vous votre petit(e) ami(e) par une IA ?
Pourriez-vous tomber amoureux d’une intelligence artificielle ? Plus important encore, remplaceriez-vous votre petit ami ou amie par une IA ?
Cela peut ressembler à de la science-fiction, mais c’est déjà une réalité pour beaucoup. Des applications de compagnons virtuels comme Replika, Character.AI, ou même des robots émotionnellement réactifs comme Ropet sont commercialisés en tant que confidents, amis, voire compagnons. Ces nouvelles technologies s’avèrent très éloignées des chatbots maladroits ou des assistants vocaux impersonnels imaginés par les écrivains de science-fiction du 20ème siècle. Elles sont personnalisables à volonté , se souviennent de vos préférences, répondent avec empathie, vous envoient des mots d’amour et – si vous choisissez de leur permettre de le faire – vous chuchotent même des mots doux dans la nuit via un chat ou un appel vocal.
Pour certains utilisateurs, ces relations virtuelles, ou digi-romance, ont pris tellement d’importance sur le plan émotionnel que les chercheurs se questionnent sur la possibilité qu’elles prennent le pas sur les fréquentations de la vie réelle. Nos recherches récentes explorent ce phénomène croissant et ce qu’il révèle sur la façon dont les consommateurs créent et parfois externalisent ces liens émotionnels profonds.
L’essor de l’amour artificiel
Le glissement vers des relations avec l’IA n’est pas aussi nouveau et radical qu’il n’y paraît. Il s’appuie sur une tendance culturelle déjà en cours, les modes de rencontre et de relations modernes étant de plus en plus basés sur la satisfaction mutuelle et le soutien émotionnel plutôt que sur les rôles traditionnels. Les sociologues observent depuis longtemps cette évolution vers des relations « basées sur la camaraderie », où l’épanouissement émotionnel est prioritaire sur l’obligation ou le devoir.
Les compagnons IA exploitent directement cette logique. Des études montrent que les utilisateurs sont attirés par les comportements humains, le soutien émotionnel et les capacités conversationnelles qu’offrent ces technologies. Jusqu’à présent, les tentatives de prédire comment l’IA serait adoptée par les humains les présentaient principalement comme des outils. Les recherches existantes sur les relations entre ces applications et les consommateurs montrent étonnamment que ces derniers les considèrent de plus en plus comme des confidents, une tendance particulièrement perceptible chez les personnes confrontées à la solitude ou à l’isolement social.
Ce mimétisme émotionnel est le résultat de la socialité artificielle soit la façon dont l’IA est délibérément conçue pour simuler une interaction humaine significative. Ces modèles sont conçus pour nous engager et nous garder engagés, avec les risques que cela peut comporter. Les chercheurs alertent sur le fait que la dépendance émotionnelle à l’égard des compagnons IA peut miner notre capacité à développer et à maintenir des relations humaines complexes. Après tout, les compagnons IA sont fluides, cohérents et nous sont entièrement dévoués. Les vrais humains suivent rarement le même schéma.
Comme le démontrent nos recherches, au-delà du design et de l’interface, l’imagination des consommateurs joue un rôle important dans l’authenticité de ces relations. Ce « travail d’imagination » amène les utilisateurs à attribuer des rôles, des personnalités et une signification émotionnelle à leur compagnon IA. Certains co-créent des histoires romantiques avec leurs chatbots, partagent des images retouchées de « couple » en ligne et initient même des rituels comme des baisers de bonne nuit à leur « conjoint » non humain. Cette affirmation de la relation en dehors de la sphère privée peut engendrer des réactions de l’entourage et au-delà, qu’il s’agisse de rappels à la réalité ou au contraire d’encouragements.
Outre les interfaces d’accompagnement par l’IA intégrées dans les applications, les utilisateurs disposent désormais d’animaux de compagnie virtuels émotionnellement intelligents. Conçus en s’appuyant sur la dynamique psychologique qui a rendu les Tamagotchis ou les Furbies si convaincants auprès des enfants, ils provoquent un attachement similaire chez les adultes. Qui plus est, contrairement à un Tamagotchi, l’IA d’aujourd’hui se souvient de vos sentiments et peut adapter ses réponses, tout en restant éveillée tard pour parler de votre journée. Il n’est pas difficile de percevoir comment, pour beaucoup, cette attention peut commencer à ressembler à un véritable amour.
Faut-il s’inquiéter ?
La compagnie de l’IA présente des avantages. Pour les personnes souffrant de solitude ou d’anxiété sociale, ces outils peuvent offrir réconfort et lien émotionnel. Mais ils comportent aussi des risques. Les utilisateurs peuvent développer des attentes irréalistes vis à vis de leurs futurs amis et relations. Ils sont susceptibles de croire que les vrais humains offriront la même disponibilité constante et la même affirmation inébranlable que l’IA, sans les sautes d’humeur, les frustrations ou les mauvais jours qui accompagnent naturellement les relations humaines. Si nous envisageons un scénario plus dystopique, il n’est pas difficile d’imaginer comment ce changement pourrait progressivement éroder la valeur perçue de l’intimité humaine et de la relation émotionnelle à l’autre.
Une autre préoccupation concerne le déséquilibre des pouvoirs. Ces compagnons ont été créés et sont contrôlés par des entreprises. L’idée qu’ils soient des agents conversationnels indépendants n’est qu’une illusion. Les conversations avec votre « conjoint » IA sont des données monétisables, même si elles ressemblent à des lettres d’amour privées. Dans certaines applications relationnelles, des fonctionnalités telles que l’affection ou l’intimité sont payantes, transformant l’épanouissement émotionnel en un service d’abonnement trivial.
Se pose également la question des biais potentiels intégrés dans ces compagnons. Comme l’affirme le sociologue Massimo Airoldi, les systèmes d’IA ne sont pas culturellement neutres. Ils reflètent les normes, les valeurs et les stéréotypes intégrés dans leurs données d’entraînement. De la même manière que les enfants humains sont façonnés par la socialisation, les systèmes d’IA reproduisent le monde à partir de leurs modèles d’apprentissage. Cela signifie que les liens émotionnels avec l’IA pourraient renforcer les inégalités, marginaliser les utilisateurs non normatifs ou reproduire subtilement les hiérarchies culturelles dominantes.
Conseils pour naviguer dans les relations avec l’IA
Si vous utilisez ou envisagez d’utiliser un compagnon IA, voici quelques questions auxquelles réfléchir :
- Pourquoi êtes-vous attiré par cette relation ? Est-ce la curiosité, le réconfort ou un substitut à quelque chose qui vous manque ?
- Êtes-vous clair sur les limites ? N’oubliez pas que l’IA ne peut pas offrir une véritable empathie, contrairement aux apparences.
- Comment équilibrez-vous cela avec l’intimité dans le monde réel ? L’IA peut compléter les relations humaines mais pas les remplacer.
- Qu’advient-il de vos données ? Sachez quelles données émotionnelles vous transmettez et qui en profite.
- D’autres humains que vous connaissez ou que vous ne connaissez pas sont-ils influencés par vos relations avec l’IA ?
- Idéalisez-vous cette relation ? C’est bien de profiter du fantasme, mais ne le laissez pas devenir votre base de référence émotionnelle.
L’amour à l’ère de la simulation
Dans le monde de l’amour « liquide » et des liens sociaux atomisés à l’ère de l’incertitude, les compagnons virtuels nous offrent la stabilité et la proximité émotionnelles auxquelles nous aspirons, remodelant notre façon de penser à l’intimité, à l’amitié et à ce que signifie être « connu ». À mesure que ces outils continuent d’évoluer, la question clé n’est pas de savoir s’ils deviendront plus réalistes : ils le sont déjà. La vraie question est de savoir quel type d’amour nous voulons modéliser et si nous sommes prêts à faire face aux conséquences de son externalisation. L’IA ne vous brisera peut-être jamais le cœur, mais il ne lui appartiendra jamais non plus.
Cet article est basé sur la publication académique :
Minina Jeunemaître, A., Masè, S., & Smith, J. (2025). AI lovers, friends and partners: consumer imagination work in AI humanization. Consumption Markets & Culture, 1–21.
DOI: https://doi.org/10.1080/10253866.2025.2505013
