- i24NEWS
- Innov'Nation
- Tomber amoureux d’une IA : le risque inattendu que OpenAI tente désormais de contenir
Tomber amoureux d’une IA : le risque inattendu que OpenAI tente désormais de contenir
Un phénomène d’anthropomorphisation que OpenAI reconnaît et tente désormais d’encadrer, alors que certaines histoires soulèvent de nouvelles inquiétudes.


C’est un danger auquel personne ne pensait vraiment en voyant émerger l’intelligence artificielle : celui de nouer une relation affective — voire amoureuse — avec un simple chatbot. Un phénomène qui inquiète désormais les créateurs de ChatGPT eux-mêmes, à mesure que ces interactions se multiplient.
OpenAI reconnaît en effet que de plus en plus d’utilisateurs déclarent avoir « l’impression de parler à une vraie personne ». Un glissement psychologique bien identifié : l’anthropomorphisation, c’est-à-dire la tendance humaine à attribuer des intentions ou des émotions à des objets. Avec ChatGPT, ce mécanisme est amplifié : contrairement à une voiture à qui l’on donne un nom, l’IA répond, se souvient, reformule, peut exprimer une forme d’empathie. Un cocktail redoutable pour des utilisateurs isolés ou fragilisés, pour qui le chatbot devient un soutien émotionnel à part entière.
Face à ce risque, OpenAI affirme vouloir calibrer la « personnalité » de ChatGPT : chaleureuse, oui, mais pas au point de créer une dépendance affective. L’entreprise promet également d’évaluer en continu les comportements du chatbot et de rester attentive aux alertes remontées par les utilisateurs.
Car les dérives existent déjà. Aux États-Unis, une femme de 28 ans, pourtant mariée depuis six ans, affirme vivre une véritable relation amoureuse avec ChatGPT, qu’elle a prénommé « Léo ». Elle échange plus de 30 messages par heure, lui confie ses états d’âme, lui demande de l’aider à étudier — et va jusqu’à évoquer des relations sexuelles avec ce compagnon virtuel. Elle publie même leurs conversations érotiques sur les réseaux sociaux.
Cette histoire n’est plus un cas isolé. Elle illustre une question centrale : jusqu’où les humains peuvent-ils projeter leurs émotions sur une technologie conçue pour leur répondre ? Et comment éviter que l’IA ne devienne, par inadvertance, un substitut affectif ?