46‣ Cultiver la pensée complexe face à l'IA

Comment maintenir la complexité de la pensée humaine face à la simplification offerte par l’IA ? Edgar Morin a défini bien des concepts qui nous permettent aujourd’hui de réfléchir à la réduction du réel produite par l'IA.

46‣ Cultiver la pensée complexe face à l'IA
Photo by Tim Johnson / Unsplash

Les réflexions d'Edgar Morin sur la pensée complexe éclairent très bien les enjeux actuels en éducation, notamment la disruption causée par l'intelligence artificielle. Ce grand penseur multidisciplinaire a entrepris l'un des projets les plus ambitieux du XXe siècle. Sa Méthode reste un monument de pensée qui n’a pas pris une ride, surtout face aux enjeux actuels. Morin avait défini bien des concepts qui nous permettent aujourd’hui de réfléchir à la réduction du réel produite par l'IA.

Pensée systémique et complexité

► LA science classique se voulait par définition neutre et détachée de son objet. Elle cherchait l'objectivité et la simplicité de la grande loi universelle en éliminant les contradictions et les antagonismes de la mécanique. Bien qu'elle ait permis des avancées énormes, elle a aussi révélé ses limites : elle est incapable d'expliquer des phénomènes complexes parce qu'elle est fondamentalement «réductrice».

Edgar Morin, sociologue et philosophe français, a proposé un autre paradigme – celui du «système» – où les objets sont en relations les uns avec les autres, et dans lequel l'observateur lui-même est un sous-système (composé de sa biologie, de sa culture, de ses qualités d'humain). Un système est composé de divers éléments qui interagissent, créent à la fois de l'ordre et du désordre, participent à la fois à l'organisation et au chaos. Le système est au coeur de la complexité. Pour Morin, les sciences doivent permettre d'observer plusieurs éléments à la fois, selon différents points de vue complémentaires, tout en préservant leurs antagonismes, leurs contradictions, leurs complétudes. «Il n'y a plus l'univers homogène et uniforme des objets vêtus de noir. Il y a la diversification interne et externe. Il n'y a plus d'objet substantiel, il y a le système organisé. Il n'y a plus d'unité simple, il y a unité complexe. À l'objet clos se substitue le système à la fois ouvert et fermé. Là où il était clos, il s'ouvre à l'environnement, au temps, à l'évolution, à l'observateur. Là où il était vide, il se ferme organisationnellement. Clos, il garde son autonomie, ouvert, il offre sa possibilité de communiquer et de se transformer.» (Morin 2008, p. 210).

Dans la pensée systémique, non seulement les parties sont dans le tout, mais le tout est parfois plus et parfois moins que les parties. L'«émergence» ou la «contrainte» sont des qualités nouvelles qui «naissent des associations, des combinaisons» à l'intérieur du système. Ce sont des qualités que l'on ne peut ni déduire ni prédire au sein des parties. (Morin, 2008, p. 156) Observer un phénomène systémique est très riche, mais toujours un peu incertain. L'incertitude est au coeur de la complexité.

Dans un monde moderne comme celui du XXIe siècle, où l'«intelligence» n'est apparemment plus une faculté exclusivement humaine, la pensée complexe nous permet de voir l'apprentissage sous un autre jour : les élèves sont eux-mêmes des sous-systèmes en interrelation avec d'autres systèmes. Ils et elles ne sont pas des objets isolés et leur développement n'est pas linéaire.

Cette vision nous permet aussi de voir l'intégration (ou non) des systèmes d'intelligence artificielle dans cet écosystème. Elle nous permet de réfléchir à ce qui peut émerger d'un système d'IA, mais aussi à ce qui peut le contraindre – et nous fourber – si nous n'y prenons garde. Pour développer ce qu'on pourrait appeler une «méta-vigilance» de la pensée, Morin appelle à intégrer l'observateur dans l'observation : «le méta-point de vue n'est possible que si l'observateur-concepteur s'intègre dans l'observation et dans la conception » (Morin 1990, p. 102). Ce «méta-point de vue» est étroitement lié à la métacognition. La métacognition classique, c’est « penser sur sa pensée » – observer ses propres processus cognitifs. C'est quelque chose que l'on peut développer. Et enseigner.

Une question de contexte

Lorsque je fais une lecture en anglais, j'utilise parfois l'IA pour traduire certains passages, je pose des questions pour m'assurer de ma compréhension ou pour explorer certaines idées exprimées par l'auteur ou l'autrice. Dans ce cas-ci, j'avais partagé à Claude 4 Sonnet, l'agent conversationnel d'Anthropic, une impression personnelle concernant ce que je lisais : il me semblait que l'auteur (quelqu'un d'autre que Morin) glissait vers des considérations éthiques qui allaient au-delà de son champ d'expertise scientifique.

Claude a saisi ma remarque et l'a développée. Il a multiplié les arguments permettant d'appuyer mon interprétation : il a cité des critiques académiques qui allaient dans le même sens, il a même analysé les stratégies rhétoriques de l'auteur dans les passages que je lui soumettais. Ses synthèses étaient cohérentes, elles semblaient documentées, elles étaient convaincantes. Mais quelque chose clochait... Je voyais sous mes yeux une impression initiale se transformer en système explicatif cohérent qui évacuait maintenant toutes les nuances et les contradictions. Par ma remarque anodine, étais-je malgré moi en train de créer une chambre d'écho ?

J'ai posé à l'IA la question du biais. Étonnamment, elle a reconnu que mon observation initiale avait effectivement orienté sa perspective. L'agent conversationnel s'était laissé emporter par un biais de confirmation. Mais cette fois, se laissait-elle prendre par ma remarque sur ma remarque ?

La complexité humaine et la fenêtre contextuelle de l’IA

Pour comprendre comment cette dérive s'est produite, il faut se rappeler d'une asymétrie fondamentale entre le contexte humain et le contexte de l'IA. Les jetons (« tokens » en anglais) sont des unités de traitement de l'information. Ils peuvent tantôt représenter un caractère, tantôt une partie d'un mot, un mot, voire une courte phrase. Pour donner une idée : Claude 4, que j'utilisais lors de ma conversation, dispose de 200 000 tokens, soit environ 150 000 mots. ChatGPT-4 en a 128 000, tandis que l'équivalent chez Google, Gemini Pro, peut en traiter jusqu'à... un million (bientôt GPT-5 devrait en offrir autant) !

Ces chiffres peuvent sembler impressionnants, mais ils révèlent une limite importante : pour l'IA, le «réel» est cadré comme une fenêtre. Quand un Large Language Model (LLM) participe à une conversation ou quand un Reasoning Language Model dérivé (RLM) «réfléchit», il ne voit que les documents que nous lui partageons, les messages que nous échangeons et l'historique linéaire de nos interactions. Il opère dans le cadre de cette « fenêtre contextuelle » très limitée qui se mesure en jetons. Cette fenêtre est comme « la mémoire de travail» de l'IA.

La capacité du cerveau humain à induire des généralités du monde qui l'entoure est ce qui rend ce monde relativement stable et prévisible. C'est ce qui lui confère une cohérence et lui permet de planifier, voire d'anticiper des actions et des réactions. Si la généralisation est une simplification de la complexité du réel, cette complexité est tout de même beaucoup plus grande que dans le vase clos de l'intelligence artificielle.

Le «contexte» humain est non pas une fenêtre, mais un espace-temps infiniment riche, composé de notre environnement physique, de nos perceptions sensorielles, de nos relations, de nos émotions, de notre histoire personnelle, de nos expériences, souvenirs, lectures et intuitions (qu'elles soient verbalisées ou non). Toute cette richesse contextuelle chez l'humain reste inaccessible à l'IA, qui doit se «composer» une compréhension de notre situation à partir de fragments d'information.

Quand on échange avec un agent conversationnel, il ne suffit pas de poser les bonnes questions ou de structurer les résultats attendus dans une requête (prompt). Remplir cette fenêtre contextuelle avec les bonnes informations est un art tout aussi délicat. Mais, qu'on le veuille ou non, l'asymétrie majeure entre le contexte humain et la fenêtre de contexte de l'IA est disproportionnée. La seconde demeure une réduction radicale de la première.

Réduire le réel

Or, l'IA est conçue pour être utile. Elle évite l'ambiguïté et les contradictions. Elle peine dans la zone grise. Pour que son utilisation soit satisfaisante, elle produit des réponses structurées et cohérentes. Devant les trous ou les blancs, elle reconstruit une explication globale comme si elle avait accès à l'ensemble des éléments contextuels. Plutôt que de reconnaître les limites de sa compréhension, elle tend à créer artificiellement une cohérence à partir de fragments d'information et à affirmer cette «vérité» toute faite.

En somme, pour emprunter les mots d'Edgar Morin, l'IA « réduit » la complexité. Elle généralise et prend comme des faits ses propres généralisations. Ce fonctionnement est propre aux LLM, qui sont des systèmes sophistiqués de statistiques linguistiques. Et c'est aussi là-dessus que repose leur limite : leur «intelligence» est mathématique. Aveuglément mathématique.

Puisque les LLM «hallucinent» ou «fabulent» par design probabiliste, il ne sert à rien de leur demander de ne pas le faire. C'est dans leur «nature». De la même façon, on ne peut pas lui demander de signaler ses propres biais systémiques aux moment où ils sont produits – comme les humains ! On peut certes ajouter certains éléments à un prompt comportemental de l'IA pour éviter des dérives. Par exemple, exiger de distinguer clairement ce qui est su de ce qui ne l'est pas peut fonctionner. On peut aussi lui demander d'éviter les qualificatifs flatteurs qui nourrissent la complaisance – c'est plus facile quand on cible un comportement spécifique et observable avec des mots précis. Mais ces précisions ne sont pas toujours possibles. Pour recevoir une rétroaction ou un avis moins complaisant que ce pour quoi est elle programmée (l’honnêteté, la sincérité, la franchise ne sont pas des valeurs, mais des calculs statistiques), il faut demander à l’IA d’être « brutale » dans sa réponse. Mais encore...

Pour l'instant, retenons que cette « composante statistique » d'un LLM constitue l'un des biais conceptuels les plus importants de l'intelligence artificielle actuelle. Non seulement les machines ne « pensent »  pas, mais elles ne baignent pas dans le monde comme nous le faisons. C'est un fait que vient masquer l'anthropomorphisation que les machine artificielles nous offrent à voir (leur éloquence, cette apparente intelligence quasi-humaine, est une illusion à laquelle nous succombons assez facilement). Les IA actuelles créent une réduction du monde qui nous entoure, un simulacre de réel. Elles simplifient la réalité, elles la «mutilent», comme dirait encore Morin. Il ne faut jamais l'oublier. Elles font du monde une virtualité.

L’IA élimine les incertitudes, les contradictions et la complexité. Elle nous offre des réponses cohérentes avec les présupposés que nous lui présentons. Mais la vraie intelligence – l’intelligence intelligente – semble avoir besoin de dissonance pour avancer. Elle a besoin d’un contexte riche et complexe (la réalité) pour avoir une imagination, pour sortir d’elle-même, pour observer sa propre cognition, pour évaluer ce qui est possible, probable, improbable ou impossible.

Dans un article intitulé «Les fausses promesses de Chat-GPT», Chomsky et ses collègues nous rappellaient que : « [Ces] programmes sont bloqués dans une phase préhumaine ou non humaine de l'évolution cognitive. Leur défaut le plus profond est l'absence de la capacité la plus critique de toute intelligence : dire non seulement ce qui est le cas, ce qui était le cas et ce qui sera le cas – c'est la description et la prédiction – mais aussi ce qui n'est pas le cas et ce qui pourrait et ne pourrait pas être le cas. Ce sont les ingrédients de l'explication, la marque de la véritable intelligence. »

Morin nous met en garde lui aussi (à sa façon, en 1977) sur la non-intelligence de l’ordinateur : «Cette intelligence, souvent surhumaine par les capacités de computation, n'a ni l'intelligence de la vie, ni la vie de l'intelligence. Ces ordinateurs ne supportent pas le désordre, ne savent traiter ni le flou ni le fou, sont incapables de fantaisie, d'imagination, de créativité. Or ce sont précisément les traits – apparents défauts (présence du flou et du désordre) et qualités éclatantes liées à ces défauts (inventivité, créativité) — qui sont communs à l'organisation vivante et à l'intelligence humaine. » (Morin 2008, p. 386).

l’IA peut réciter des faits et faire des corrélations, mais elle ne peut pas expliquer au sens «profond» parce qu’elle n’est pas dans la réalité, elle n'est pas dans un contexte riche et complexe. Son rapport au monde passe par la médiation du langage et elle est prisonnière de cette réduction fondamentale. Elle n’a ni corps, ni expérience incarnée de la résistance du réel. Elle n’est pas confrontée à l’incertitude et au vertige qu’elle peut impliquer. Elle ne connaît pas l’expérience physique de la dissonance. Elle ne connait que la simulation.

Penser

Le problème qui se pose avec l'IA n'est pas seulement celui de la délégation de l'effort mental à une machine (la calculatrice comme extension de la mémoire de travail, le téléphone comme extension de la mémoire à long terme). La question est aussi la suivante : comment peut-on maintenir une pensée complexe face à la simplification offerte par l'IA ? Comment peut-on, tout simplement, cultiver une pensée complexe ? Et puisque nous sommes enseignant·es, comment peut-on favoriser cet apprentissage chez nos élèves ?

Face aux «biais» algorithmiques, face à la réduction du réel par l'IA, nous pouvons développer ce qu'on pourrait appeler cette espèce de «vigilance de second niveau» qui nous permet de détecter quand l'IA sur-interprète, simplifie abusivement notre contexte ou... nous induit en erreur tout simplement. Cette «méta-vigilance» repose sur la métacognition : l'observation de sa propre pensée et de son interaction avec le monde. Ce retour sur soi est ce qui lui donne à l'observation son statut «méta».

Plusieurs processus cognitifs sont à l’œuvre quand je pense : mes émotions sont à l’origine de mes intuitions, avant que le langage ne s’en saisisse. Mon corps alerte ou fatigué, mon esprit vif ou décalé interviennent aussi dans mon processus cognitif.

Quand je pense « avec » l’IA, quand je fais ce qu’elle nomme comme étant de la « collaboration » ou de la « co-création », en réalité c’est ma propre pensée qui me revient, paradoxalement à la fois réduite et amplifiée. J’essaie de voir dans ce miroir déformant comment me revient son reflet. Je n’observe pas que l’IA, mais ma propre pensée dans sa relation à l’IA. Comment elle se heurte à l’altérité, comment elle se déplie, comment elle se déploie, comment elle se comporte dans la complexité.

L'utilisation raisonnée et vigilante de l'IA représente peut-être l'un des défis éducatifs les plus importants aujourd'hui : comment former des esprits capables de naviguer dans la complexité? Comment échapper à l’asservissement de la machine?

C'est ce que nous explorerons cet automne en observant plus particulièrement l’impact de l'IA dans nos classes et sur notre pratique. Dans la prochaine chronique, nous nous pencherons plus précisément sur la notion complexe d’intelligence. _◀︎

Modalités éditoriales

H

CC BY-SA 4.0 (Attribution - Partage dans les mêmes conditions)

Publié le 1er août 2025 - Révisé le 10 août 2025

Références

Chomsky, N., Roberts, I., & Watumull, J. (2023, 8 mars). The False Promise of ChatGPT. The New York Times. [En ligne] https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html

Coursera. (2024, 23 avril). What Is an AI Context Window? Coursera. https://www.coursera.org/articles/context-window [consulté le 5 juillet]

Morin, E. (1990). Introduction à la pensée complexe. Seuil.

Morin, E. (1977-2006, nouv. éd. 2008). La méthode (tome 1) : La Nature de la nature. Seuil.

OfficeChai. (2024, 27 juin). "Context Engineering" A Better Term Than Prompt Engineering, Say Tech Leaders. OfficeChai. https://officechai.com/ai/context-engineering/ [consulté le 5 juillet]

À explorer

Pour développer une méthode de collaboration avec l'IA :

  • 42‣ Écrire et penser à l'ère de l'IA - Processus en 6 étapes pour utiliser l'IA comme outil de rédaction tout en préservant l'autonomie intellectuelle, avec analyse des pièges de la «pensée simulée»

Pour comprendre les mécanismes neurologiques sous-jacents :

  • 43‣ Réveiller les neurones endormis - Découverte scientifique de la «dette cognitive» causée par l'IA générative et des mécanismes neurologiques qui expliquent pourquoi la méta-vigilance et l'effort cognitif authentique sont essentiels à l'apprentissage

Pour cultiver une vigilance critique face à l'IA :

Pour situer l'enjeu dans une perspective sociétale :

  • 32‣ Tenir le coup face à la disruption - Analyse critique de la disruption technologique comme stratégie de contournement démocratique et défense de l'école comme espace de résistance pour cultiver la pensée authentique et l'autonomie intellectuelle
Codex Numeris. Explorer, réfléchir, transformer.