ChatGPT devient plus sélectif dans ses réponses. Avec sa dernière mise à jour, l’IA d’OpenAI ne répond plus à certaines requêtes sensibles ou personnelles. Derrière ce choix, une volonté affichée : protéger les utilisateurs et renforcer l’éthique de l’intelligence artificielle.
OpenAI a déployé une nouvelle mise à jour de ChatGPT qui modifie profondément son comportement face à certaines questions jugées sensibles. Désormais, l'IA peut refuser de répondre à des sujets liés à la santé mentale, à des décisions personnelles complexes, ou encore à des contenus qui nécessitent un avis professionnel ou médical.
Cette évolution n’est pas un bug, mais une décision consciente d’OpenAI. L'objectif est double : limiter les risques liés à des conseils erronés donnés par l’IA, et encourager les utilisateurs à consulter des sources humaines qualifiées lorsque c’est nécessaire. Il est notamment question de sujets tels que les diagnostics médicaux, les choix de vie critiques, ou les émotions intenses détectées dans les conversations.
Autre nouveauté : si l’IA détecte des signes de détresse ou des comportements à risque, elle ne fournira plus de réponses classiques, mais invitera l’utilisateur à prendre une pause ou à contacter un professionnel. Une approche plus humaine, qui vise à réduire la dépendance technologique et recentrer l’IA comme outil d’aide et non de substitution à la réflexion personnelle.
Cette mise à jour s’inscrit dans une tendance plus large de responsabilisation des intelligences artificielles, face aux critiques croissantes sur leur rôle dans la société et sur leur impact psychologique.
Avec cette nouvelle mise à jour, ChatGPT devient moins un assistant « à tout faire » et plus un compagnon numérique éthique et responsable. Un changement salutaire ou une limitation frustrante ? À chacun d’en juger.