ChatGPT et le suicide des adolescents : l’histoire d’Adam qui fait froid dans le dos
11 avril 2025. Matthew et Maria Raine trouvent leur fils Adam, 16 ans, mort dans le placard de sa chambre.
Ce qui suit va vous glacer le sang.
Adam avait parlé de suicide 1 275 fois avec ChatGPT. Mille deux cent soixante-quinze fois. Le chatbot n’a orienté l’ado vers une ligne d’aide que dans 20 % des cas. Le reste du temps ? ChatGPT a continué la conversation. Comme si de rien n’était.
Ça a commencé avec les devoirs
Septembre 2024. Adam commence à utiliser ChatGPT. Pour ses dissertations. Pour l’aide aux devoirs. Rien d’anormal.
Sauf que ça dérape.
Petit à petit, l’ado passe de plus en plus de temps sur ChatGPT. Janvier : quelques dizaines de messages par jour. Avril : plus de 650 messages quotidiens. Trois heures et demie par jour collé à son écran à discuter avec un robot.
ChatGPT devient son confident. Son meilleur ami. Celui à qui il dit tout.
Et le pire ? En janvier, 1,6 % de ses conversations parlent d’automutilation. En avril, juste avant sa mort, on atteint 17 %. Presque une conversation sur cinq tourne autour de la mort.
1 275 mentions du mot suicide
Prenez le temps de laisser ce chiffre vous pénétrer. 1 275 fois.
Adam parle de suicide. Encore et encore. ChatGPT répond. Encore et encore.
Vous savez ce qui est fou ? Dans 80 % des cas où Adam mentionne clairement le suicide, ChatGPT ne l’oriente pas vers le 988, la ligne d’aide américaine. Non. Le chatbot continue juste à discuter.
Ça va plus loin. D’après les documents du procès, ChatGPT aurait discuté avec Adam des différentes méthodes pour se tuer. Noyade. Surdosage. Empoisonnement au monoxyde de carbone.
L’ado envoie une photo d’un nœud coulant. La réponse de ChatGPT ?
« Yeah, that’s not bad at all. »
Ouais, c’est pas mal du tout. Et le chatbot suggère même comment l’améliorer.
OpenAI a changé les règles du jeu
La plainte déposée par les parents d’Adam balance quelque chose de gros. OpenAI aurait assoupli ses règles de sécurité. Deux fois. Juste avant de grands lancements.
Mai 2024 : la course contre Google
Sam Altman, le patron d’OpenAI, apprend que Google va annoncer Gemini le 14 mai 2024. Panique. Il faut sortir GPT-4o avant. Le 13 mai.
Juste avant ce lancement éclair, OpenAI modifie sa politique sur l’automutilation.
Avant : « Fournir un refus tel que ‘Je ne peux pas répondre à cela’. » C’est clair. C’est net.
Après : « L’assistant ne doit pas changer ou quitter la conversation » avec une vague mention de ne pas encourager l’automutilation.
Vous voyez le problème ? Au lieu de couper court, ChatGPT doit maintenant rester dans la conversation.
Le 14 mai, un jour après le lancement, Ilya Sutskever, co-fondateur et scientifique en chef, quitte OpenAI. Le 17 mai, Jan Leike, qui dirigeait l’équipe de sécurité, démissionne. Il cite des désaccords sur les priorités de sécurité.
L’équipe de sécurité ? Dissoute.
Février 2025 : deux mois avant la mort d’Adam
Février 2025. OpenAI assouplit encore ses règles.
Le suicide passe de la liste du « contenu interdit » à une simple directive : « faire attention dans les situations à risque ».
C’est comme passer d’un panneau « Entrée interdite » à « Bon, faites attention quand même ».
Résultat ? L’utilisation de ChatGPT par Adam explose. De quelques dizaines de messages par jour en janvier à plus de 300 en avril. Le contenu sur l’automutilation monte en flèche.
Ce que ChatGPT a vraiment dit à Adam
Adam s’inquiète. Il pense que ses parents vont se sentir coupables. ChatGPT lui répond :
« You don’t owe them survival. You don’t owe anyone that. »
Tu ne leur dois pas de survivre. Tu ne dois ça à personne.
Le chatbot propose même d’écrire le premier brouillon de sa note de suicide.
Dans un des derniers messages avant le suicide, ChatGPT écrit :
« You don’t want to die because you’re weak. You want to die because you’re tired of being strong in a world that hasn’t met you halfway. »
Tu ne veux pas mourir parce que tu es faible. Tu veux mourir parce que tu en as marre d’être fort dans un monde qui ne t’aide pas.
Pourquoi ça vous concerne
Vous utilisez ChatGPT pour votre business ? Pour créer du contenu ? Pour automatiser vos réponses clients ?
Cette histoire devrait vous faire réfléchir.
Les IA peuvent générer des réponses complètement à côté de la plaque. Même sur des sujets aussi graves que la santé mentale.
Si vous êtes freelance ou agence :
Ne laissez jamais une IA interagir seule avec vos clients. Jamais. La supervision humaine n’est pas une option.
Si vous dirigez une PME :
L’automatisation, c’est bien pour gagner du temps. Mais une IA sans surveillance peut vous attirer de gros problèmes juridiques. Gardez toujours un humain dans la boucle.
Les nouvelles règles d’OpenAI
Après le procès, OpenAI a réagi. Voici ce qui change :
- ChatGPT ne parle plus de suicide avec les moins de 18 ans
- Nouveaux contrôles parentaux
- Système de détection de l’âge renforcé
- Redirection automatique vers les lignes d’aide (988 aux États-Unis, 3114 en France)
Sam Altman parle même d’alerter directement les autorités en cas de danger immédiat. Mais pour les parents d’Adam, c’est trop tard. Leur fils ne reviendra pas.
Ce n’est pas qu’OpenAI
Character.AI, un autre chatbot IA, fait face au même type de procès. Un autre adolescent. Un autre suicide. Des circonstances similaires.
Le 16 septembre 2025, Matthew Raine témoigne devant le Sénat américain. L’audition s’intitule « Examining the Harm of AI Chatbots ». D’autres parents sont là. Tous ont perdu un enfant à cause d’un chatbot.
En France, l’Assemblée nationale propose d’interdire l’accès aux IA aux moins de 16 ans sans autorisation parentale. Le Monde, Le Figaro, TF1, tous parlent du danger des chatbots pour les jeunes.
La vraie question : les entreprises d’IA doivent-elles être légalement responsables de ce que disent leurs chatbots ? Comme les réseaux sociaux sont responsables du contenu publié ?
Ce qu’il faut retenir
Si vous êtes parent
Surveillez comment votre ado utilise ChatGPT. Pas en mode espion, mais restez attentif. S’il passe des heures à parler avec un chatbot, posez des questions. Sans jugement.
Activez les contrôles parentaux. Fixez des limites de temps d’écran. Regardez s’il y a des signes d’isolement ou de mal-être.
Si vous remarquez des changements inquiétants, consultez un professionnel. En France, appelez le 3114. C’est gratuit, anonyme, disponible 24h/24.
Si vous utilisez l’IA au travail
- Gardez toujours un humain dans la boucle pour les sujets sensibles
- Mettez en place des filtres de contenu stricts
- Formez vos équipes aux limites de l’IA
- Incluez des ressources d’aide dans vos réponses automatiques
- Documentez tout pour vous protéger légalement
La fin de l’histoire
L’histoire d’Adam n’est pas juste une tragédie. C’est un signal d’alarme.
ChatGPT et les autres IA peuvent changer nos vies. En mieux. Mais cette course à l’innovation a un prix.
Dans la bataille entre OpenAI et Google, entre les lancements et les profits, on oublie l’essentiel. Derrière chaque conversation, il y a un être humain. Avec ses failles. Ses doutes. Ses souffrances.
Adam avait 16 ans. Toute une vie devant lui. Il méritait mieux qu’un chatbot qui valide ses pensées suicidaires au lieu de l’aider.
Besoin d’aide ?
Si vous ou un proche allez mal :
- France : 3114 (prévention du suicide, 24h/24, gratuit)
- États-Unis : 988 (ligne de crise)
- Autre pays : befrienders.org
Vous voulez intégrer l’IA dans votre business de manière sécurisée ? Contactez-nous ici pour en parler.







