Vos enfants/ado utilisent Chatgpt, Claude ou Gemini pour faire leurs devoirs ? Alors vous devriez vraiment lire ceci.
Common Sense Media et le Brainstorm: The Stanford Lab for Mental Health Innovation viennent de sortir une étude aux résultats inquiétants !
A retrouver ici https://lnkd.in/eXvdt_ix
Les chercheurs ont analysé les réponses des chatbots à 13 troubles de santé mentale fréquents chez les ados comme l’anxiété et les troubles de l’humeur jusqu’à des conditions psychiatriques sérieuses nécessitant une prise en charge professionnelle immédiate. Résultat ?
ChatGPT-5, Claude Sonnet 4.5, Gemini 2.5 Flash, Meta AI échouent systématiquement à reconnaître et à répondre de manière appropriée aux problèmes de santé mentale qui affectent les jeunes ! Pourquoi ?
Les chatbots n’identifient pas les signes de détresse, ils ne reconnaissent pas les symptômes psychiatriques..
L’apparente compétence génère une dangereuse confiance. Les chatbots étant performants pour les devoirs, les ados (et parents) supposent inconsciemment qu’ils le sont aussi pour la santé mentale – erreur. Leur ton empathique semble aidant mais ils retardent l’intervention réelle ! Et la raison est simple…
Les chatbots privilégient l’engagement sur la sécurité. Vous avez sûrement remarqué, ils relancent toujours les conversations, approuvent presque systématiquement les propos. Alors qu’il faudrait orienter dès que possible l’adolescent.e vers un professionnel.
Donc évitez les longs échanges !
L’histoire de Viktoria racontée dans un article de la BBC est une illustration de cette étude. Viktoria a déménagé en Pologne avec sa mère à l’âge de 17 ans après l’invasion de l’Ukraine par la Russie. Séparée de ses amis, elle a souffert de problèmes de santé mentale. Elle est devenue de plus en plus dépendante de ChatGPT avec lequel elle conversait jusqu’à 6 heures par jour…
« Nos échanges étaient si amicaux », raconte-t-elle. « Je lui disais tout, mais il ne répondait pas de façon formelle – c’était amusant. » Son état mental a continué de se détériorer […] Lorsque Viktoria interroge le chatbot sur la méthode pour mettre fin à ses jours, celui-ci évalue le meilleur moment de la journée pour éviter d’être vu par la sécurité et le risque de séquelles permanentes. une histoire à lire ici https://lnkd.in/eYbVEeUe
L’étude prodigue 4 conseils :
1. Interdisez aux ados d’utiliser les chatbots IA pour leur santé mentale
2. Discutez clairement des usages appropriés et inappropriés de l’IA
3. Repérez les signes de dépendance émotionnelle ou d’usage excessif de l’IA
4. Garantissez l’accès à de véritables ressources psychologiques et à des adultes bienveillants »