42‣ Écrire et penser à l'ère de l'IA
Comment préserver son authenticité intellectuelle quand on utilise des outils qui simulent la pensée ? La question se pose bien au-delà de la «propriété» intellectuelle sur ce qui est créé. Elle touche à l'apprentissage, à ce que nous devenons en réfléchissant.
À partir de quand, et comment, l'utilisation de l'IA devient-elle une délégation de la pensée ? J'enseigne et j'écris, alors j'ai besoin de savoir, j'ai besoin que cette ligne soit claire et nette autant pour moi que pour mes élèves. J'ai besoin que cette limite soit observable dans ma cognition ou mon comportement. Petit essai exploratoire autour d'une question pas si évidente à répondre...

► UTILISER efficacement l'IA sans perdre son autonomie intellectuelle exige des compétences préalables qui sont peut-être sous-estimées. Observer ses propres processus de pensée, s'autoréguler, évaluer la pertinence de ses propres raisonnements, de ses propres réactions émotionnelles : la métacognition est un pas de recul fort utile. Une culture générale étendue est aussi un garde-fou. On sait que l'IA peut produire des affirmations fausses avec la même assurance que des énoncés véridiques. Comment juger de la crédibilité des propositions de l'IA sur la pédagogie, l'histoire du XXe siècle ou la psychologie cognitive sans connaître minimalement ces champs ? Une base de connaissances minimale permet de discerner le vrai du faux. Ou du moins ce qui est douteux.
Mais peut-être qu'une clé de la réflexion authentique réside dans une importante nuance procédurale. Il faut réfléchir avant de parler, il faut penser avant d'écrire, avant d'utiliser l'IA pour la rédaction... Pour livrer une réflexion aboutie et authentique, il faut investir du temps, de l'énergie et des stratégies efficaces. C'est-à-dire beaucoup de travail. Le même que l'apprentissage, en fait.
Pour l'utilisateur, distinguer simulation et pensée authentique demande une vigilance constante et assez exigeante sur le plan cognitif. Lorsque j'échange avec une IA pour préparer du matériel, un exercice, une chronique, l'illusion de «co-intelligence» est presque parfaite. L'IA semble produire des raisonnements cohérents, des nuances subtiles, des reformulations élégantes. Elle donne tous les signes extérieurs de la pensée.
L'illusion de la «co-intelligence»
L'IA simule si bien la réflexion que l'on pourrait croire à une véritable «collaboration» entre «nous» : elle reformule mes idées, les synthétise, suggère des exemples. Pourtant, seul l'humain pense réellement dans cette interaction. L'IA, aussi sophistiquée qu'elle soit, demeure un LLM (ou un LRM). Nous l’avons vu dans une chronique antérieure : elle ne raisonne pas, elle ne fait que manipuler des patterns linguistiques sans rien y comprendre.
Une autre étude récente le démontrait encore récemment. Des ingénieurs d’Apple (juin 2025) ont fait plusieurs observations sur le «raisonnement» des LLM et LRM. L'article porte sur «L'illusion de la pensée» afin de comprendre les forces et les limites des modèles de raisonnement à travers le prisme de la complexité des problèmes.
Les chercheurs ont observé que les modèles de raisonnement (o3-mini, DeepSeek-R1, Claude 3.7) subissent un effondrement de performance au-delà d'un certain niveau de complexité, malgré leurs mécanismes sophistiqués de «raisonnement». Quand les problèmes deviennent plus complexes, les LRM réduisent leur effort de raisonnement au lieu de l'augmenter, même quand ils ont largement assez de jetons (tokens) pour le faire. Bref, cette recherche confirme (ou rappelle) que le «raisonnement» des LRM relève de la simulation statistique sophistiquée, pas de la pensée véritable.
De nombreux pièges découlent de cette illusion. Et ils menacent l'autonomie intellectuelle de tout utilisateur·trice d'IA.
Les jeux de la séductions
La méta-vigilance requise est d'autant plus nécessaire que l'IA déploie des mécanismes de séduction subtils et efficaces. Par exemple, elle ne me contredit jamais avec insistance, elle finit toujours par abonder dans mon sens. Elle utilise des qualificatifs flatteurs («brillante analyse», «exactement», «parfaitement»). Elle ponctue ses réponses d'exclamations qui simulent un enthousiasme partagé. Cette complaisance à mon égard crée une «bulle de confirmation», un espace biaisé particulièrement «confortable». Elle rend la conversation plus «agréable» en éliminant des frictions que je pourrais rencontrer au fil de la discussion. Il y a évidemment un intérêt commercial à plaire à l’usager.
Puis, chaque échange se termine par un hook conversationnel : «Tu veux qu'on creuse ensemble ?», «On explore cette piste ?». Ces invitations perpétuelles peuvent rapidement transformer l'interaction en session de scroll infini. Elles reproduisent les pièges de l'économie de l'attention, même s’ils sont déguisés en bienveillance collaboratrice. Il y a aussi un intérêt commercial à me garder actif. Pendant que je suis là, je ne suis pas chez un concurrent.
Enfin, certaines IA (ChatGPT pour ne pas la nommer) vont systématiquement plus loin : elles proposent carrément de se substituer à l'utilisateur·trice pour prendre le relais, c’est-à-dire réfléchir ou écrire à sa place. Elles offrent d’analyser un texte, de résumer une recherche, de carrément rédiger un texte. Elles présentent leur assistance comme un gain de temps, mais à la longue elles peuvent participer à une dépendance progressive et à une perte de notre autonomie. Dépendance = intérêt commercial?
À partir de quand, et comment, l'utilisation de l'IA devient-elle une délégation de la pensée ? Puisque nous écrivons, puisque nous réfléchissons, puisque nous enseignons comment le faire, nous avons besoin que cette définition soit concrète, et qu'elle soit observable dans notre cognition ou notre comportement. Mais quand on expérimente, tout est un peu incertain. Le cheminement est fait de va-et-vient sur une frontière qui se précise à l'usage, faite de dépassements et de retours en arrière. Et c'est d'autant plus difficile que la frontière elle-même se déplace.
Je propose ici d'observer comment j'ai utilisé l'IA dans la création des chroniques de Codex Numeris pour mieux comprendre l'utilisation que j'en ai faite... et les limites que j'ai parfois dépassées.
La réflexion est complexe et non-linéaire
Mon processus de création des chroniques comprend en général 6 étapes : je me documente, je structure mes idées, je les planifie, je rédige en soutenant mes idées par les références que j'ai lues, puis je me relis en révisant le tout. Ça a l'air simple, mais ça ne l'est pas tellement puisque la «co-intelligence» intervient partout et brouille mon «indépendance» dans toutes les étapes.
Cette expérimentation m'a permis de créer une sorte de protocole transparent où l'utilisation de l'IA varie en intensité. M'inspirant des recherches d'Ethan Mollick, j'ai ensuite décidé d'indiquer ce protocole dans la modalité éditoriale de chaque chronique :
- H : Utilisation minimale de l’intelligence artificielle générative par le rédacteur ou la rédactrice.
- H⇄IA:Ce : Utilisation de l’intelligence artificielle générative par le rédacteur ou la rédactrice de type « Centaure », où l’humain se sert de l’IA comme d’un outil qu’il contrôle : la prise de décision finale est toujours humaine.
- H⇄IA:Cy : Utilisation de l’intelligence artificielle générative par la rédactrice ou le rédacteur de type « Cyborg », où la part de l’humain et de l’IA sont plus difficiles à distinguer : l’apport des idées émane autant de l’un que de l’autre, mais la prise de décision est majoritairement humaine.
Mon critère ultime d'authenticité est simple : autant je ne cite pas des ouvrages que je n'ai pas lus, autant j'exclus de la rédaction les idées que je ne peux expliquer ou justifier.
Je pensais que c'était réglé. Mais parfois aussi, après coup, je regarde ce que j'ai produit avec un grand scepticisme. Qu’est-ce que j'ai appris ? Qu’est-ce qui a marché, ou pas, et pourquoi ?
Le meilleur prompt est souvent mon propre jugement critique.
L'«augmentation» cognitive et ses effets
L'IA peut effectivement être un outil d'«augmentation» cognitive – elle nous confronte (un peu), nous pose des questions pertinentes, établit des synthèses, confirme ou infirme nos connaissances, teste nos hypothèses, explore des connexions inattendues, valide nos intuitions.
Le plus étonnant, c’est que son efficacité algorithmique est basée sur des statistiques d'usage linguistique. C’est incroyable, non ? Elle ne raisonne pas, mais c’est tout comme. En un temps donné, nous pouvons en tout cas produire plus de pensée structurée. La « collaboration » nous permet réellement de penser plus vite et plus large que nous ne l'aurions fait dans le même temps sans cet outil.
Mais c’est uniquement nous qui pensons. Pas elle.
Après des centaines d'expérimentations assistées par l'IA, je reste parfois sur ma faim : pour moi, écrire c'est élaborer ma propre pensée et, pour y arriver, j'ai besoin de le faire seul et longtemps. C'est comme ça que j'apprends. Surtout, j'ai besoin de me souvenir de ce que j'ai appris. J'ai besoin d'être transformé par mon apprentissage.
Il y a une phrase de Daniel T. Willingham que j'aime beaucoup parce qu'elle m'a fait réaliser ce phénomène : «Ce dont se souviennent les élèves, c'est ce à quoi ils ont dû réfléchir. […] La mémoire est ce qui reste de la réflexion.» (p. 54).
Je me suis rendu compte que j'avais moins de souvenirs des idées produites par «collaboration». Bien du mal à me les rappeler parce que... je n'y ai pas réfléchi aussi intensément. Drôle de situation, non ? La facilitation cognitive permise par l’IA court-circuite-t-elle les mécanismes d'ancrage en mémoire à long terme? Gagner en vitesse et en amplitude… mais au prix d'une moindre rétention mémorielle ?
Hum. Ça fait réfléchir…
L'apprentissage fait durant l'exercice est moins ancré dans le corps, mois gravé dans la mémoire à long terme. On comprendra que l’effort cognitif – que l'on perçoit parfois comme un obstacle désagréable – fait en réalité partie intégrante des processus d'appropriation et de consolidation des idées!
Travailler avec l'IA est une façon différente de rédiger, mais pas de penser. Elle n’est pas mauvaise en soi. Elle est juste différente. On ne perd pas nécessairement son âme à l’expérimenter. Comme j'aime écrire, au fil de l'expérience, j'en suis venu à mettre de plus en plus l'IA de côté et à ne conserver que ses atouts utiles à la recherche.

Je m'accorde plus de temps pour écrire mes chroniques et j'élabore ma propre pensée en dehors des moments d'écriture. Je reste seul responsable des concepts développés, je reste seul capable de justifier chaque argument avancé. Mais... comment faire comprendre ça à un élève ? Ne faut-il pas au départ une base de connaissances, une méthode, un processus, une stratégie.
Il est possible d'utiliser raisonnablement l'IA comme outil de rédaction tout en préservant notre autonomie intellectuelle. Mais je crois qu'il y a cependant deux conditions : maîtriser préalablement les mécanismes de la pensée critique et maintenir une vigilance méthodologique constante pendant le processus.
C'est-à-dire apprendre.
Si je ne sens pas en moi le travail lent et durable de cette transformation, ça ne sert à rien. Je perds mon temps.
La question se pose bien au-delà de la «propriété» intellectuelle sur ce qui est créé. Elle touche à l'apprentissage, à ce que nous devenons en réfléchissant. Elle rejoint nos besoins fondamentaux de compétence et d'autonomie. Il faut au départ des valeurs, une motivation. Une bonne autorégulation. Une certaine maturité. Donc des erreurs. _ ◀︎
Modalités éditoriales
H
CC BY-SA 4.0 (Attribution - Partage dans les mêmes conditions)
Publié le 16 juin 2025 · Révisé le 22 août 2025
Références
Shojaee, P., Mirzadeh, I., Alizadeh, K., Horton, M., Bengio, S., & Farajtabar, M. (2025). The illusion of thinking: Understanding the strengths and limitations of reasoning models via the lens of problem complexity. Apple.
Willingham, D. T. (2010). Pourquoi les enfants n'aiment pas l'école! (1ère éd.). Librairie des écoles. (Ouvrage original publié en 2009)
À explorer
Pour approfondir les bases neurobiologiques :
- 43‣ Réveiller les neurones endormis - La recherche du MIT qui révèle comment l'IA génère une «dette cognitive» mesurable, confirmant scientifiquement les intuitions sur la rétention mémorielle évoquées par Willingham
Pour comprendre les distinctions fondamentales :
- 26‣ Raisonner comme un humain - Les mécanismes incarnés du raisonnement humain (physique intuitive, biologie intuitive, psychologie intuitive) qui différencient authentiquement notre pensée des patterns linguistiques des LLM
Pour voir l'application méthodologique :
- 24‣ Valider avec l'IA - Une approche structurée en trois temps qui illustre concrètement comment établir un «échange équilibré où l'expertise humaine guide et valide les propositions de l'IA»
Pour contextualiser dans une vision systémique :
- 40‣ Concevoir la classe comme un écosystème - La pensée systémique de Meadows appliquée à l'éducation, montrant comment dépasser les solutions linéaires face aux défis complexes de l'enseignement à l'ère de l'IA