OpenAI expérimente une nouvelle fonction de rappel de pause dans ChatGPT, accompagnée d’outils de détection émotionnelle. Objectif : encourager une utilisation plus saine de l’IA.
Depuis plusieurs mois, l’IA conversationnelle ChatGPT est devenue un compagnon numérique pour des millions d’utilisateurs. Que ce soit pour écrire, apprendre, créer ou même se confier, cette technologie s’immisce dans nos habitudes. Mais jusqu'où faut-il aller ? Face aux risques de dépendance ou de surcharge cognitive, OpenAI amorce un virage éthique et préventif.
La société à l'origine de ChatGPT teste actuellement un système de rappels automatiques incitant à faire des pauses, notamment après une longue session continue. Le message est simple : "Et si vous faisiez une pause maintenant ?". L’objectif est d'encourager l’utilisateur à reprendre le contrôle de son temps et à éviter une consommation compulsive ou prolongée de l’outil.
Mais ce n’est pas tout. En parallèle, OpenAI affine les capacités émotionnelles de ChatGPT. Le but ? Repérer les signes de détresse, d’anxiété ou de solitude dans les conversations, sans jamais se substituer à un professionnel de santé mentale. L’IA peut, par exemple, inviter l’utilisateur à parler à quelqu’un de confiance ou proposer des ressources externes lorsque des indices linguistiques signalent un mal-être.
"Nous voulons que ChatGPT soit un outil de réflexion, pas un substitut à l’humain ou un échappatoire"explique un porte-parole d’OpenAI.
Cette initiative s’inscrit dans une tendance plus large, celle de la "tech responsable". Plusieurs plateformes (YouTube, TikTok, Instagram) expérimentent déjà des alertes de pause ou des rappels de sommeil. Mais ici, le défi est plus subtil : il s’agit d’un assistant conversationnel intelligent, souvent perçu comme bienveillant, disponible 24/7, et parfois utilisé comme confident.
Des risques bien réels de dépendance
Des études récentes alertent sur l’effet d’attachement émotionnel que peuvent provoquer les intelligences artificielles génératives. Les utilisateurs les plus vulnérables, notamment les jeunes ou les personnes isolées, risquent de s’y attacher excessivement, jusqu’à perdre le sens des interactions sociales réelles.
OpenAI l’a bien compris : pour durer, l’IA doit rester un allié ponctuel, non un refuge permanent.
Source:
🔗 https://www.numerama.com/tech/1633799-chatgpt-veut-vous-aider-a-faire-des-pauses.html