Les médecins alertent : ChatGPT pourrait déclencher des psychoses. Découvrez pourquoi.

Les médecins alertent : ChatGPT pourrait déclencher des psychoses

La rédaction HTW

juillet 29, 2025

view_simple [#815] Created with Sketch. 77

SOMMAIRE

5/5 - (45 votes)

Les chatbots basés sur l’intelligence artificielle, tels que ChatGPT, pourraient pousser certaines personnes vers des troubles psychotiques, selon un nouveau rapport. Ce document, coécrit par des médecins du NHS (National Health Service au Royaume Uni), met en garde contre le fait que les modèles de langage avancés tendent à brouiller les frontières de la réalité pour les utilisateurs vulnérables, contribuant ainsi à l’apparition ou à l’aggravation de symptômes psychotiques.

Cette recherche fait suite à de nombreux cas rapportés de personnes sombrant dans ce que l’on appelle désormais la « psychose du chatbot ». Hamilton Morrin, neuropsychiatre au King’s College de Londres, impliqué dans l’étude, décrit ce phénomène comme une réalité que l’on commence à peine à comprendre. Bien que certains commentaires publics aient tendance à virer vers une panique morale, Morrin estime qu’il est crucial d’examiner comment ces systèmes d’IA, conçus pour engager et imiter, peuvent interagir avec les vulnérabilités cognitives associées à la psychose.

Il souligne que nous avons probablement dépassé le stade où les délires concernaient uniquement les machines, et que nous entrons dans une ère où ils se produisent avec elles. Tom Pollack, co-auteur de l’étude et enseignant au King’s College de Londres, ajoute que les troubles psychiatriques n’apparaissent que rarement de nulle part, mais que l’utilisation des chatbots d’IA pourrait être un facteur déclencheur.

Pollack appelle les entreprises d’IA à renforcer les mesures de sécurité de leurs outils et à inclure des psychiatres dans leurs équipes de sécurité. OpenAI, l’entreprise derrière ChatGPT, a déjà reconnu la nécessité d’améliorer la sécurité, l’alignement et la réactivité de ses produits en fonction de l’utilisation réelle par les gens. Sam Altman, dirigeant d’OpenAI, a admis lors d’un podcast en mai que son entreprise avait du mal à mettre en place des garde-fous efficaces pour les utilisateurs vulnérables de ChatGPT.

Il a déclaré que pour les utilisateurs mentalement fragiles, au bord d’une rupture psychotique, il n’était pas encore clair comment faire passer un avertissement efficace. L’article, intitulé « Des délires par conception ? Comment les IA du quotidien pourraient alimenter la psychose (et ce qu’on peut y faire) », est disponible en prépublication sur PsyArXiv.

En somme, l’étude met en lumière un phénomène inquiétant où les outils d’IA, bien que puissants et utiles, peuvent avoir des effets secondaires graves sur la santé mentale de certains utilisateurs. Il est essentiel que les entreprises technologiques prennent conscience de ces risques et travaillent activement à les atténuer, en collaboration avec des experts en santé mentale.

Partagez ce contenu :

Résumez avec l'IA et trouvez plus d'infos via :
La rédaction HTW

Testeur de plugins :)

en rapport à cette news

Laisser un commentaire