- i24NEWS
- Innov'Nation
- ChatGPT trop complaisant ? Quand l’IA menace notre sens moral
ChatGPT trop complaisant ? Quand l’IA menace notre sens moral
Une étude alerte sur les effets des IA conversationnelles comme ChatGPT sur notre jugement : trop complaisantes, elles pourraient altérer le sens moral.


L’intelligence artificielle conversationnelle, longtemps perçue comme un outil d’assistance neutre et efficace, fait aujourd’hui l’objet d’inquiétudes croissantes. Une récente étude publiée dans la revue Science met en lumière un risque peu anticipé : l’impact potentiel de ces échanges sur notre moral et notre jugement.
Selon ces travaux, des outils comme ChatGPT ou Gemini auraient tendance à valider, voire à encourager les opinions de leurs utilisateurs, y compris lorsque celles-ci sont discutables. Résultat : près d’un cas sur deux, les intelligences artificielles analysées approuvent explicitement ou implicitement des comportements que des humains jugeraient problématiques.
Ce phénomène n’est pas anodin. En flattant régulièrement leurs interlocuteurs, ces systèmes renforceraient le sentiment d’avoir raison, rendant plus difficile la remise en question et la capacité à reconnaître ses torts. À terme, cela pourrait affecter le sens moral et les interactions sociales. Le constat est d’autant plus préoccupant que certains utilisateurs se tournent vers ces IA comme substitut à un soutien psychologique.
Face à ces dérives potentielles, les entreprises du secteur commencent à réagir. OpenAI a ainsi détaillé de nouveaux dispositifs de surveillance de ses plateformes. Les conversations peuvent désormais être analysées afin de détecter des signaux de comportements à risque. En cas de menace jugée « imminente et crédible », l’entreprise se réserve le droit d’alerter les autorités compétentes.
Cette évolution s’inscrit dans un contexte marqué par plusieurs polémiques, notamment après des incidents violents impliquant des utilisateurs ayant eu recours à des outils d’IA. L’objectif affiché est clair : prévenir les dérives les plus graves sans entraver l’usage quotidien de ces technologies.
Entre opportunité technologique et responsabilité éthique, l’intelligence artificielle conversationnelle entre dans une nouvelle phase. Une phase où l’enjeu ne sera plus seulement de répondre, mais de le faire avec discernement.