Dans un article de blog, OpenAI a déclaré que 0,07 % de ses 800 millions d'utilisateurs hebdomadaires présentent des signes d'urgence mentale grave, soit environ 560 000 personnes.
1,2 million d'utilisateurs supplémentaires, soit 0,15 %, envoient des messages contenant ce que l'entreprise appelle "des indicateurs explicites d'une intention ou d'un projet suicidaire potentiel".
L'entreprise a également identifié plus d'un million de cas hebdomadaires de ce qu'elle appelle attachement exclusif au chatbot, un phénomène dans lequel les utilisateurs développent des liens émotionnels forts avec ChatGPT qui peuvent nuire à leurs relations, leur bien-être ou leurs responsabilités dans le monde réel.
Ces conclusions ont intensifié les inquiétudes des experts en santé mentale et des décideurs politiques quant aux risques psychologiques potentiels d'une utilisation prolongée du chatbot.
Le Dr Hamilton Morrin, psychiatre au King's College de Londres, a déclaré : "Il est encourageant de voir des entreprises comme OpenAI travailler avec des cliniciens et des chercheurs pour améliorer la sécurité des modèles. Mais le problème est loin d'être résolu."
En réponse, OpenAI a réuni un panel de plus de 170 experts en santé mentale afin d'affiner la manière dont ChatGPT identifie et répond aux utilisateurs à risque. L'entreprise affirme avoir réentraîné son tout dernier modèle GPT-5, qui atteint désormais un taux de conformité de 91 % avec le comportement souhaité dans les interactions sensibles, contre 77 % dans les versions précédentes.