L’IA rend intelligent ? Réflexion sur le coaching, la pensée, et l’usage des outils

Résumé :
Et si l’IA ne nous rendait ni plus bêtes ni plus brillants, mais simplement plus lucides ?

Ce texte retrace une expérience, celle d’un professionnel du coaching d’équipe qui, confronté à ses propres routines de pensée, engage un dialogue inattendu avec une IA. Pas pour chercher des réponses, mais pour mieux formuler ses questions.

Au fil des échanges, les évidences se délitent, les mots se précisent, la posture se décale. L’IA n’est ni un oracle, ni un gadget : elle devient ici un miroir exigeant, un révélateur de ce qui se joue, ou se bloque, dans la pratique.

Une réflexion incarnée sur le métier, les formes d’agencement invisibles, et le pouvoir de la pensée… quand on accepte d’en reprendre la main.

Intro

Une question qui me tourne dans la tête depuis longtemps, sans que je n’aie jamais réussi à en faire complètement le tour : qu’est-ce qui distingue, en profondeur, le coaching d’équipe du mentoring, de la formation, de l’andragogie ou encore du team building ? Et surtout, pourquoi est-ce que, moi, je fais ce que je fais, d’une certaine manière, et pas autrement ?

Je pars de mon expérience. Des dizaines d’équipes accompagnées, des dynamiques vécues en salle, des intuitions qui reviennent. J’ai des repères, des grilles, des gestes professionnels. Mais quand je veux replacer tout cela avec précision dans un cadre, ça se dérobe. Les mots manquent de précision, les catégories se mélangent. Je sens bien qu’il y a quelque chose qui m’échappe, comme un savoir implicite, jamais formalisé.

Alors j’ouvre une session ChatGPT. Pas pour obtenir une réponse. Pas pour aller plus vite. Mais pour m’obliger à formuler ma pensée. Je commence par taper : « Quelle est la différence entre coaching d’équipe, mentoring, team building et andragogie ? » Chat me donne une réponse banale, sans surprise. Mais ce n’est pas grave. Parce que la première question m’amène à une deuxième, un peu plus fine. Puis une troisième. Et peu à peu, j’entre dans un échange fourni, riche, en fait je suis en train de penser avec l’outil. Je propose mes propres distinctions. Je challenge. Je précise. L’IA me répond, m’oppose des nuances. Je me rends compte que certaines de mes convictions reposent sur des raccourcis. Que certains mots que j’utilise sont piégés. C’est là en effet que les mots commencent à me résister. Certains, que j’utilise depuis des années, se révèlent bancals, trop larges, ou même contre-productifs.

Des mots en apparence simples… mais piégeux

Je parle souvent de cohésion, en supposant que c’est une bonne chose. Mais l’IA me renvoie à la distinction entre cohésion affective (on s’aime bien) et fonctionnelle (on produit bien ensemble). Et je réalise que certaines équipes très soudées sont en réalité dans une forme de conformisme mou, où le conflit est évité à tout prix.

Je redécouvre aussi que l’alignement n’est pas un état désirable en soi. C’est souvent une illusion de stabilité dans un monde mouvant. Les travaux de Karl Weick ou Edwin Hutchins me rappellent que ce qui compte, ce n’est pas d’être aligné, mais de savoir se réaligner vite et collectivement.

Sur l’écoute, je croyais être au clair. Et pourtant : il y a des écoutes qui neutralisent, des silences qui anesthésient, des reformulations qui figent. Je retrouve Rogers, puis je me heurte à ses critiques. Lacan, l’école de Palo Alto, Beck… Chacun m’aide à affûter mon discernement. Et je m’aperçois que derrière tous ces ajustements de langage, c’est ma posture entière qui se décale.

Je ne travaille pas sur la relation, je travaille sur la forme

Je réalise que ce que je fais réellement n’est ni de l’animation, ni du “coaching d’équipe” au sens usuel. Je ne “fais pas parler” les gens. Je ne distribue pas des outils. Je ne cherche même plus à créer du consensus.

Ce que je fais, c’est travailler sur les réglages invisibles.

Par exemple : un CODIR bavard mais stérile. Tout le monde parle, mais personne n’écoute vraiment. Ce n’est pas une question de bienveillance. C’est une structure implicite de la parole. Je le fais apparaître. Pas frontalement. Par effet miroir. Et le système se déplace.

Ou encore : deux services fusionnés qui s’entendent bien, mais ne produisent rien ensemble. Le problème n’est pas l’adhésion, mais l’absence de récits communs. On travaille alors sur l’hybridation des rôles, la co-construction de nouvelles routines, pas sur la “coopération”.

C’est dans ces moments que je comprends que ma pratique est moins relationnelle que topologique. Topologique, car ce qui compte n’est pas le contenu des échanges, mais leur agencement dans le temps, dans l’espace, dans les rôles. Comme en musique où ce n’est pas la note qui fait l’harmonie mais sa place.

Nous ne travaillons finalement que peu sur les liens entre les personnes. Plutôt sur les formes d’agencement, sur ce qui précède, ce qui suit, ce qui est possible dans une séquence ou bloqué par un implicite. Je ne facilite pas une réunion, mais je propose de modifier les dynamiques d’interaction par petits gestes structurels, par petits déplacements souvent peu perceptibles, mais à fort levier.

Et c’est là que l’IA m’a été utile

Parce qu’elle a enrichi un savoir de références et d’études que je n’avais pas. Et surtout parce qu’elle m’a aidé à organiser mon propre savoir tacite, à l’enrichir, à le questionner. À le mettre en tension avec d’autres modèles.

Elle m’a amené à considérer des outils concrets de lecture des dynamiques d’équipe (Argyris & Schön), à mieux comprendre en quoi la congruence pouvait aussi devenir une stratégie d’évitement (Carl Rogers). Elle m’a fait découvrir l’approche de la responsabilité partagée de Peter Block, plus politique qu’il n’y paraît.

Et surtout, elle m’a permis de formaliser ce que je faisais déjà, mais que je n’aurais pas pu nommer avec cette précision.

En conclusion : penser avec

L’IA m’a rendu beaucoup plus intelligent sur cette question, en m’aidant à structurer et à enrichir ma réflexion, à repenser mes expériences, à solliciter rapidement les théoriciens et à apporter un œil critique.

Elle ne remplace pas la pensée (à ce stade), mais elle la prolonge, quand on la laisse jouer un rôle de miroir, de révélateur, de contradicteur. Elle m’a poussé à reconsidérer intelligemment, à déconstruire mes évidences, à tester des hypothèses. À poser des questions que je n’aurais pas formulées seul. Et à relire ce que je croyais savoir avec un œil neuf.

Bref, si l’IA ne rend pas intelligent, elle exige néanmoins qu’on le devienne un peu plus.


Références et ressources citées

  • Chris Argyris & Donald A. Schön, Organizational Learning: A Theory of Action Perspective, 1978.
  • Chris Argyris, “Double Loop Learning in Organizations”, Harvard Business Review, septembre 1977. (hbr.org)
  • Infed.org – Explication du double-loop learning d’Argyris & Schön : infed.org
  • Karl E. Weick, Sensemaking in Organizations, 1995.
  • Article introductif sur le sensemaking en organisations : epicpeople.org
  • Wikipedia – Sensemaking : définition et origines du concept de Weick : wikipedia.org
  • Wikipedia (fr) – Apprentissage en double boucle : wikipedia.org
  • Steve Taylor, Wired, entretien avec Karl Weick : wired.com
Voir aussi :
  • Les comportements opposés : rework.withgoogle.com