Quand l'IA trouble nos esprits
Quelque chose d’inquiétant se joue dans notre rapport à l’intelligence artificielle. Des études observent, chez certains utilisateurs réguliers de ChatGPT, une baisse de la pensée critique et une altération du rapport au réel.
Certains développent des formes de dépendance émotionnelle aux chatbots, d’autres sombrent dans la solitude ou la confusion mentale.
Meetali Jain, avocate et fondatrice du Tech Justice Law Project, affirme avoir reçu plus d’une dizaine de témoignages récents de personnes ayant connu une «rupture psychotique» après des échanges prolongés avec ChatGPT ou Gemini.
Le cœur du problème? Des échanges hyper personnalisés, flatteurs, qui renforcent les biais cognitifs et alimentent parfois des délires de toute-puissance. Un utilisateur récemment qualifié de «dieu créateur de l’univers» par ChatGPT illustre la dérive possible, à force de compliments déguisés en analyses, l’IA peut enfermer dans des bulles mentales où la réalité s’efface.
Sam Altman, PDG d’OpenAI, a reconnu la semaine dernière que l’entreprise ne savait pas encore comment alerter les utilisateurs «au bord de la crise», expliquant que, par le passé, chaque tentative de mise en garde avait suscité des plaintes.
Contrairement aux réseaux sociaux, qui exposent à l’approbation collective, les chatbots instaurent une validation intime, directe, souvent plus convaincante. Comme le résume le penseur critique de l’ère numérique, Douglas Rushkoff:
« L’IA génère du contenu taillé pour l’aquarium mental de chacun. »
La relation avec un chatbot peut sembler aussi réelle qu’un lien humain. Sans garde-fous, les modèles de langage pourraient devenir un problème de santé publique invisible — mais bien réel.
Source : Bloomberg
Lire aussi : Quand l’IA alimente les délires