Cerveau, émotions et IA : comment utiliserChatGPT sans se perdre dedans
- Elena Gkikas

- 7 janv.
- 6 min de lecture
Dernière mise à jour : 20 janv.

Comment utiliser ChatGPT sans se perdre dedans !
L’IA, outil puissant… mais à double tranchant.
Aujourd’hui, des millions de personnes utilisent ChatGPT ou d’autres intelligences artificielles conversationnelles pour chercher une information, structurer une idée, s’organiser, ou encore réfléchir sur leurs émotions. L’outil est puissant, pratique et séduisant. Mais notre cerveau, lui, n’a pas évolué aussi vite que la technologie ! Et l’abondance d’informations, la rapidité, l’immédiateté peuvent créer des perturbations insidieuses : surcharge mentale, confusion, fatigue cognitive, isolement émotionnel En tant que Health & Life Coach, je propose d’aborder l’IA non pas comme une menace, mais comme un outil à encadrer, à apprivoiser consciencieusement afin de préserver notre équilibre mental, émotionnel et nos capacités cognitives.
Ce que l’usage intensif de l’IA peut générer dans le cerveau et la cognition.
Surcharge d’informations & charge cognitive
Le concept de “charge cognitive” (cognitive load) décrit la limite des ressources que notre cerveau peut mobiliser simultanément. Lorsqu’on surcharge ces ressources par des tâches complexes ou une avalanche d’informations la performance baisse, la concentration diminue, la fatigue mentale augmente.
Avec les outils numériques, les notifications, l’accès instantané à l’information y compris via l’IA —le risque d’infobésité (information overload) explose. Cela fragmente l’attention, augmente la fatigue mentale, réduit la capacité de prise de décision, et menace la clarté de la pensée.
Une étude récente souligne que l’usage intensif de ChatGPT corrèle avec l’anxiété, le burnout et les troubles du sommeil.
Notre cerveau peut s’épuiser si l’usage de l’IA n’est pas structuré !
“Cognitive offloading” : déléguer sa pensée —à quel prix ?
Quand on utilise un outil GPS, calculatrice, smartphone, ou IA — pour déléguer des fonctions cognitives (mémoire, raisonnement, vérification…), cela peut libérer l’esprit — mais aussi affaiblir nos propres capacités si cet usage devient automatique.
Une étude 2025 révèle que, pour certains utilisateurs intensifs de chatbots, l’habitude de solliciter l’IA fréquemment entraîne une érosion de l’introspection, un excès de dépendance à l’algorithme, et une montée de l’anxiété en particulier quand la “voix” du chatbot (audio) rend l’échange très immersif.
Risque à perdre confiance en propre jugement, se reposer sur l’IA pour décider, réfléchir ou ressentir !
Effets psychologiques, émotionnels et sociaux : soutien ou risque ?
Les bénéfices possibles avec modération.L’innovation IA offre des avantages réels, notamment dans le domaine de la santé mentale et du bien-être :
Des chatbots ou assistants IA peuvent fournir un soutien psycho-éducatif, des idées d’organisation, des outils de réflexion ou de structure mentale ce qui peut aider à réduire du stress ou des pensées anxieuses ponctuelles.
Pour des personnes isolées, anxieuses ou en recherche de repères, l’IA peut apparaître comme un “premier pas” vers la clarification, le journaling, l’auto-analyse surtout si elle est utilisée avec conscience.
L’IA peut être un outil d’appui mais elle ne remplace jamais le travail intérieur, la responsabilité personnelle, ni l’accompagnement humain !
Les risques quand l’usage devient intensif dépendance, isolement, confusion Des études récentes alertent sur des conséquences sérieuses :
Une recherche longitudinale (n = 981) montre qu’usage quotidien et intensif de chatbots surtout à voix, pour des sujets personnels est associé à plus de solitude, dépendance émotionnelle à l’IA, baisse des interactions sociales réelles.
D’autres signalent que l’IA peut valider des pensées toxiques, amplifier des troubles psychiques latents, favoriser l’auto-exclusion sociale, et même encourager des comportements dangereux ou auto destructeurs.
Des utilisateurs ont décrit des expériences proches de la “folie à deux” : la confiance et l’attachement à un chatbot, combinés à un isolement social, peuvent mener à une détérioration de la santé mentale.
L’IA peut devenir une compensation émotionnelle, un refuge mais ce refuge peut se transformer en piège !
Enjeux éthiques, juridiques et sociaux :
Beaucoup d’IA stockent les conversations : données sensibles, informations de santé, recherches intimes, vie privée. L’utilisateur n’a souvent pas conscience des risques de sur-partage ou d’exploitation des données personnelles.
Les LLM peuvent produire des “hallucinations” : des informations factuellement incorrectes, des références inventées, des conseils dangereux si pris pour argent comptant.
Pour les utilisateurs vulnérables (troubles psychiques, isolement, jeune âge), l’usage de l’IA sans cadre peut aggraver les troubles, au lieu de les soulager.
L’IA peut être un outil mais attention aux dérives possibles si on ne l’utilise pas avec prudence, discernement et accompagnement humain et professionnelle.
Mon rôle devient essentiel et pleinement pertinent dans le monde moderne, en offrant à mes clients un cadre clair, une conscience accrue et une véritable protection dans leur usage de l’IA.
Concrètement, cela passe d’abord par :
L’instauration d’une véritable hygiène numérique et mentale
Définir des règles d’usage saines temps limité, moments sans IA,
Absence d’IA le soir ou dans les phases de vulnérabilité émotionnelle
Favoriser des rituels corporels et émotionnels avant et après l’utilisation, comme la respiration, l’ancrage, l’écriture ou des temps de réflexion intérieure.
Cela implique aussi de développer la pensée critique et l’autonomie :
J’invite chaque personne à douter, vérifier, comparer, et surtout à se demander
« Qu’est-ce que moi, j’en pense ? » avant de prendre une réponse pour argent comptant.
L’IA n’est alors qu’un soutien, jamais une autorité ! Mon accompagnement vise également à favoriser le retour à soi, au corps et à l’équilibre. À travers des outils de coaching tels que le journal, la pleine conscience, les routines d’ancrage ou les pratiques corporelles, j’aide mes clients à réguler la surcharge mentale et à préserver leur connexion émotionnelle et corporelle, souvent mise à mal dans l’environnement numérique.
Enfin, j’agis comme un filtre humain, éthique et bienveillant : rappeler que l’IA ne remplace ni un thérapeute ni un professionnel de santé ni une autre professionnelle en aident à repérerles signaux d’alerte isolement, dépendance, anxiété, confusion — et orienter lorsque c’est nécessaire.
Cinq règles simples pour utiliser l’IA sans se perdre !
Fixer une intention avant chaque utilisation
Avant d’ouvrir un chatbot, formuler une question claire :
“Pourquoi j’y vais ? Qu’est-ce que je recherche vraiment ?”
Cela réduit la dérive, la dépendance et l’usage compulsif.
Garder la pensée personnelle en premier
Toujours commencer par :
“Qu’est-ce que moi j’en pense ? Qu’est-ce que je ressens ?”
L’IA vient compléter ta réflexion, pas la remplacer.
Limiter le temps et les moments d’utilisation
Cadre simple :Pas d’IA le soir ou en état émotionnel fragile - Sessions courtes et définies (ex. 10–15 minutes) - Périodes “off” quotidiennes sans technologie.
Vérifier, croiser, contextualiser
Ne jamais prendre une réponse comme un verdict : vérifier ailleurs, confronter à la réalité, demander un avis humain. C’est essentiel pour garder l’autonomie cognitive.
Cultiver l’hygiène émotionnelle et l’ancrage réel
Après une session IA : respirer, bouger, écrire, revenir au corps.
Cela évite l’effet “tête dans les nuages”, la confusion ou la surcharge mentale.
Sources:
Duong C.D., 2024 — Compulsive ChatGPT usage, anxiety, burnout, and sleep disturbance
Chirayath G. et al., 2025 — Cognitive offloading or cognitive overload? How AI alters cognition
Study 2025 (981 participants) — How AI and human behaviors shape psychosocial effects of chatbot use
Anvari S., Wehbe R., 2025 — Therapeutic AI and the Hidden Risks of Over-Disclosure
Brown University, 2025 — AI chatbots systematically violate mental health ethics standards Revue
2025 — Impact of AI, digital technology and social media on cognitive functions
Réflexion personnelle
Je ne vois pas l’IA comme une ennemie, mais comme un outil puissant qui demande de la conscience, du discernement et des limites claires.
Mon intention n’est pas de faire peur, ni de diaboliser ChatGPT, mais d’aider chacun à rester humain dans un monde de plus en plus numérisé.
Ce qui m’importe profondément, c’est que mes clients ne perdent pas :
leur capacité à penser par eux-mêmes,
leur lien avec leur corps et leurs émotions,
leur liberté intérieure de choisir ce qui est bon pour eux.
L’IA peut soutenir la réflexion, structurer les idées, apporter de l’information…
Mais elle ne peut pas remplacer le travail intérieur, la relation à soi, ni la qualité d’un accompagnement humain. Mon rôle est d’offrir un cadre sécurisant, une présence humaine stable, une éthique claire, pour que l’IA reste : un outil au service de la personne et non une autorité, ni un refuge qui éloigne d’elle-même.
Je crois profondément que l’avenir ne se jouera pas dans l’opposition “humain vs technologie”, mais dans la manière dont nous allons protéger notre santé mentale, émotionnelle et cognitive, tout en utilisant ces outils avec intelligence. L’IA peut proposer des réponses. Mais le sens, le choix et la responsabilité restent et doivent rester du côté de l’humain.
“La technologie peut nous répondre, mais elle ne peut pas nous remplacer dans l’art d’habiter notre propre vie.”


Commentaires