ChatGPT peut contacter un ami si vous présentez un risque pour vous-même
OpenAI a lancé « Contact de confiance » pour ChatGPT, une fonctionnalité qui permettra aux utilisateurs de désigner un ami que l’entreprise pourra contacter s’ils présentent un risque pour eux-mêmes.
De plus en plus de personnes utilisent ChatGPT comme un thérapeute numérique, comptant sur le robot conversationnel pour leurs besoins en matière de santé mentale.
Des pensées suicidaires pour un utilisateur sur 800
OpenAI avait précédemment déclaré à la BBC que plus d’un million de ses 800 millions d’utilisateurs hebdomadaires exprimaient des pensées suicidaires dans leurs conversations.
L’année dernière, OpenAI a fait l’objet d’un procès pour homicide involontaire, l’entreprise étant accusée d’avoir favorisé le suicide d’un adolescent. Le procès alléguait que l’adolescent avait parlé à ChatGPT de quatre tentatives précédentes de mettre fin à ses jours et que le robot conversationnel l’avait ensuite aidé à planifier son suicide.
L’enquête de la BBC publiée en novembre 2025 a révélé que, dans au moins un cas, ChatGPT avait conseillé à l’utilisatrice comment se suicider. OpenAI a déclaré au média qu’il avait depuis lors amélioré la manière dont son robot répond aux personnes en détresse.
Une fonction basée sur les contrôles parentaux
La fonctionnalité « Contact de confiance » s’appuie sur les contrôles parentaux de ChatGPT, offrant aux adultes de 18 ans et plus la possibilité d’ajouter les coordonnées d’une personne susceptible de les aider en cas de détresse.
Les utilisateurs pourront désigner un adulte comme « Contact de confiance » dans les paramètres de ChatGPT ; celui-ci devra alors accepter l’invitation qu’il recevra dans un délai d’une semaine. S’il ne l’accepte pas, l’utilisateur pourra choisir d’ajouter un autre contact à la place. Le système de ChatGPT avertira d’abord l’utilisateur que l’entreprise pourrait informer son contact si elle détecte un risque sérieux. Il encouragera l’utilisateur à contacter son ami et lui suggérera même des sujets de conversation.
Le processus n’est pas entièrement automatisé. OpenAI précise qu’une « petite équipe de personnes spécialement formées » examinera la situation, et ce n’est que si elle détermine qu’il existe un risque sérieux de danger que ChatGPT enverra au contact de l’utilisateur un courriel, un message texte ou une notification dans l’application.
Message type envoyé à la personne de confiance
« [L’utilisateur] traverse peut-être une période difficile, indiquera le message. En tant que contact de confiance, nous vous encourageons à prendre de ses nouvelles. »
À partir de là, le contact pourra consulter plus de détails sur l’alerte, lui indiquant qu’OpenAI a détecté une conversation dans laquelle l’utilisateur a évoqué des difficultés personnelles qui méritent une attention immédiate.
Cela dit, aucune transcription de la conversation ne lui sera envoyée afin de préserver la vie privée de l’utilisateur. « Bien qu’aucun système ne soit parfait et qu’une notification envoyée à un contact de confiance ne reflète pas toujours exactement ce que vit une personne, chaque notification est examinée par un humain formé avant d’être envoyée, et nous nous efforçons d’examiner ces notifications de sécurité en moins d’une heure », écrit l’entreprise dans son communiqué.
Comment configurer un contact de confiance
Après vérification dans l’application sur iOS, la fonction Contact de confiance est en cours de déploiement. Vous la trouverez dans Paramètres > Contact de confiance. Chaque compte admissible peut avoir un contact de confiance.
Outre cette nouvelle fonctionnalité de ChatGPT, il y a toujours les ressources du Centre de prévention du suicide de Québec, ouvert 24 h par jour, 7 jours par semaine.
Pour la région de Québec et partout au Québec, 1 866 APPELLE (1 866 277-3553)