• Content
  • Menu
  • Footer
  • Connexion
    • À la Une
    • Israël en guerre
    • Analyse
    • Vu sur i24NEWS
    • Israël
    • International
    • Innov'Nation
    • Vidéos
    • Radio
    • Émissions
    • Programmes
    • Canaux
    • Profils
    • English
    • Français
    • عربى
    • עברית
  • Direct
  • i24NEWS
  • Innov'Nation
  • Tomber amoureux d’une IA : le risque inattendu que OpenAI tente désormais de contenir

Tomber amoureux d’une IA : le risque inattendu que OpenAI tente désormais de contenir


Un phénomène d’anthropomorphisation que OpenAI reconnaît et tente désormais d’encadrer, alors que certaines histoires soulèvent de nouvelles inquiétudes.

i24NEWS
i24NEWS
2 min
2 min
  • IA
  • amour
Image d'illustration
Image d'illustrationAFP

C’est un danger auquel personne ne pensait vraiment en voyant émerger l’intelligence artificielle : celui de nouer une relation affective — voire amoureuse — avec un simple chatbot. Un phénomène qui inquiète désormais les créateurs de ChatGPT eux-mêmes, à mesure que ces interactions se multiplient.

OpenAI reconnaît en effet que de plus en plus d’utilisateurs déclarent avoir « l’impression de parler à une vraie personne ». Un glissement psychologique bien identifié : l’anthropomorphisation, c’est-à-dire la tendance humaine à attribuer des intentions ou des émotions à des objets. Avec ChatGPT, ce mécanisme est amplifié : contrairement à une voiture à qui l’on donne un nom, l’IA répond, se souvient, reformule, peut exprimer une forme d’empathie. Un cocktail redoutable pour des utilisateurs isolés ou fragilisés, pour qui le chatbot devient un soutien émotionnel à part entière.

Video poster
Amour artificiel : des utilisateurs de Chat GPT s'attachent à l'IA

Face à ce risque, OpenAI affirme vouloir calibrer la « personnalité » de ChatGPT : chaleureuse, oui, mais pas au point de créer une dépendance affective. L’entreprise promet également d’évaluer en continu les comportements du chatbot et de rester attentive aux alertes remontées par les utilisateurs.

Car les dérives existent déjà. Aux États-Unis, une femme de 28 ans, pourtant mariée depuis six ans, affirme vivre une véritable relation amoureuse avec ChatGPT, qu’elle a prénommé « Léo ». Elle échange plus de 30 messages par heure, lui confie ses états d’âme, lui demande de l’aider à étudier — et va jusqu’à évoquer des relations sexuelles avec ce compagnon virtuel. Elle publie même leurs conversations érotiques sur les réseaux sociaux.

Cette histoire n’est plus un cas isolé. Elle illustre une question centrale : jusqu’où les humains peuvent-ils projeter leurs émotions sur une technologie conçue pour leur répondre ? Et comment éviter que l’IA ne devienne, par inadvertance, un substitut affectif ?

Cet article a reçu 4 commentaires

Commentaires

  • Actu
  • Fil info
  • Direct
  • Radio
  • Émissions
  • Obtenez l'application Google Play
  • Obtenez l'application IOS

Information

  • COMITÉ EXÉCUTIF D'i24NEWS
  • PROFILS D'i24NEWS
  • NOS ÉMISSIONS
  • Radio en direct
  • Carrière
  • Contact
  • Plan du site

Categories

  • Fil info
  • Israël en guerre
  • Analyse
  • Vu sur i24NEWS
  • Israël
  • International
  • Innov'Nation

Juridique

  • Conditions générales d'utilisation
  • Politique de confidentialité
  • Conditions générales publicitaire
  • Déclaration d'accessibilité
  • Liste des cookies

Nous suivre

  • S'inscrire à la newsletter