Depuis que je collabore avec une intelligence artificielle, j’ai le sentiment de penser plus vite, plus loin, plus librement. Mais cette aisance nouvelle cache peut-être une contrepartie silencieuse : celle d’un effacement progressif de l’effort, de l’attention, de l’autonomie. Car penser avec des outils, est-ce encore penser pleinement ? Cet essai explore ce qu’on gagne — et ce qu’on perd — à déléguer nos facultés mentales aux machines, des plus simples aux plus sophistiquées.
Depuis que je collabore avec une intelligence artificielle, j’ai le sentiment d’avancer intellectuellement comme jamais auparavant. Les idées fusent, les liens se tissent, les textes prennent forme avec une fluidité presque troublante. Et pourtant, un doute persiste. Et si je me fourvoyais ? Et si cette aisance nouvelle était le symptôme d’une perte plus insidieuse : celle de mon autonomie intellectuelle en critiquant ce que moi-même je suis peut-être devenu ? En écoutant (encore) France Culture, j’ai entendu parler du sujet par le philosophe Pascal Chabot dans un épisode de l’émission « Être et savoir » intitulé « Faut-il bannir l’IA ou s’en servir pour stimuler les capacités rédactionnelles à l’école ?« .
Ce questionnement est lié à un phénomène prégnant : la délégation cognitive. Ce n’est pas une nouveauté. Depuis toujours, nous déléguons une part de notre pensée : à l’écriture, à la mémoire externe, aux livres, aux calculatrices, aux moteurs de recherche. Platon déjà, dans le Phèdre, s’inquiétait de ce que l’écriture ferait à notre mémoire : une connaissance sans souvenir, une pensée affaiblie par la trace. Mais l’intelligence artificielle ouvre un nouveau chapitre : celui d’une externalisation massive, fluide, invisible parfois. On ne délègue plus seulement une tâche ou un outil, on délègue des choix, des raisonnements, des liens logiques, des formulations entières de pensée. Et cela mérite qu’on s’y attarde. Réfléchir à la délégation cognitive, c’est peut-être déjà s’en prémunir. Car là où la machine exécute sans scrupule, l’humain reste libre de douter.
I. Suis-je encore auteur quand je ne suis plus seul à écrire ?
Le point de départ de cette réflexion, c’est une gêne discrète mais persistante : celle que je ressens quand je dis que j’écris sur ce blog. En réalité, depuis le début de ce texte, j’ai tout rédigé moi-même. Mais je sais qu’à un moment ou un autre, l’intelligence artificielle va intervenir — pour reformuler, structurer, enrichir. Cette présence invisible modifie insidieusement ma manière de me définir. Alors, peu à peu, j’ai remplacé le verbe écrire par des alternatives plus floues : organiser, proposer, assembler, affiner. Comme si l’acte d’écriture purement humaine devenait trop exclusif, trop étroit pour décrire ce que je fais vraiment.
Et un jour, donc, j’ai mis un mot sur cette pratique : la délégation cognitive. Oui, je délègue. C’est indéniable. Mais je continue à me demander si cette délégation m’appauvrit — ou au contraire, m’enrichit. Car à la différence d’un copier-coller paresseux, ma collaboration avec l’IA reste active, sélective, critique. Certaines études récentes (comme celle du MIT) soulignent pourtant le danger d’une illusion de compétence : on croit avoir produit une pensée, alors qu’on s’est contenté de la valider. Et si ce confort cognitif masquait une lente atrophie de l’effort ? Voilà ce que je redoute. Mais voilà aussi pourquoi je continue à réfléchir — précisément là où d’autres se contenteraient de produire.

Mais j’ai découvert que la délégation cognitive ne datait pas d’hier — et qu’elle ne concernait pas uniquement l’IA ou l’écriture assistée. Au fond, dès que l’humain s’est mis à externaliser une fonction mentale, il a délégué une part de sa cognition. Et l’un des premiers cas documentés de méfiance face à cette externalisation, c’est justement… l’écriture. Dans le Phèdre, Platon raconte une fable célèbre. Le dieu égyptien Thot, inventeur de l’écriture, la présente au roi Thamous comme un remède à l’oubli. Mais Thamous refuse, et répond :
« Tu donnes à tes disciples non pas la vérité, mais l’apparence de la vérité. […] Car ce qu’ils auront appris grâce à l’écriture, ils le croiront savoir, alors qu’ils l’ignoreront. »
Pour Platon, l’écriture n’était pas un outil neutre : elle était surtout un poison pour la mémoire vive et, donc, la pensée vivante. Elle permettait de stocker, certes, mais elle affaiblissait, selon lui, la mémoire intérieure, celle que l’on forge par l’échange, la répétition, la présence. Mais, il faut rappeler que, à son époque, l’écriture restait marginale, réservée à une élite. Le savoir général se transmettait principalement par oralité : dialogues, récits, mythes ou enseignement direct. Déléguer la mémoire à un support matériel, c’était déjà, pour Platon, rompre un lien vivant, un fil direct entre l’esprit et la pensée. Et pourtant, c’est cette délégation-là — celle que Platon redoutait — qui nous a permis d’écrire, de penser plus loin, de transmettre plus largement. Ce paradoxe est au cœur de toute délégation cognitive : on perd une capacité immédiate, mais on en gagne d’autres. La question n’est donc pas de refuser la délégation… mais de savoir à quoi, exactement, on renonce — et ce qu’on en fait.
Déléguer, est-ce trahir ?

Qu’est-ce que je perds réellement en déléguant une part de ma pensée ? C’est bien là tout le dilemme. Je n’en ai pas vraiment conscience. Ou plutôt : je ne peux pas en avoir conscience. Car tant que je délègue, je ne sais pas ce que j’aurais produit sans cette aide, ni ce que cette friction intellectuelle aujourd’hui partiellement évacuée, aurait pu m’apporter. Je me persuade que cette forme de délégation reste bénéfique. Que le résultat final – un texte plus clair, plus riche, plus structuré – me servira à apprendre, à progresser, à consolider mes connaissances. Peut-être que je me mens à moi-même, mais j’ai besoin d’y croire. C’est sans doute le compromis que je m’autorise : faire confiance au projet pour racheter les raccourcis.
Cela rejoint une question plus large : le sens du travail intellectuel réside-t-il dans l’effort… ou dans le résultat ? Intuitivement, je tends à valoriser le fruit du processus, quitte à accepter un chemin facilité. Mais je reste vigilant. Je ne délègue jamais en bloc. Je fragmente. Je relis. Je reformule. J’essaie de rester présent à chaque étape, de maintenir une tension, un effort, une exigence. Cette tension est plus forte encore quand j’écris de la fiction. Là, je ressens plus vivement une sorte de frontière intérieure. Comme si le geste créatif exigeait une solitude radicale, une authenticité brute. Sur un essai, je suis plus souple : je puise dans des sources, des concepts, des références ; je fais de la mise en forme, de l’articulation. Si une pensée originale émerge, c’est un bonus. Je ne m’y attends pas. Je ne cours pas après le génie. Je ne cherche pas une médaille. Je cherche à penser juste. Et là – intervention de l’IA – il m’est proposé pour clore ce point d’évoquer deux théories du philosophe français Bernard Stiegler (1952-2020) que je trouve particulièrement pertinentes : la pharmacologie – pas dans son sens moderne mais au travers de son ambivalence étymologique – et la prolétarisation cognitive.
⚖️ Focus : Délégation, remède ou poison ? Deux concepts de Bernard Stiegler
Le philosophe Bernard Stiegler (1952–2020) a profondément interrogé notre rapport aux technologies. Il a notamment développé deux concepts clés pour penser la délégation cognitive : la pharmacologie et la prolétarisation cognitive.
🔹 Le pharmakon : entre remède et poison
Stiegler reprend un mot grec ancien, pharmakon, qui signifie à la fois remède et poison. Pour lui, toute technologie — écriture, télévision, smartphone, intelligence artificielle — est fondamentalement ambivalente.
Elle peut nous soutenir dans notre pensée, notre mémoire, notre créativité… ou au contraire nous affaiblir, en externalisant nos capacités, en nous rendant passifs ou dépendants.
“Le pharmakon est à la fois ce qui soigne et ce qui tue.” – Bernard Stiegler
La question n’est donc pas de rejeter la technique, mais de penser ses usages. Une technologie peut être émancipatrice si elle est intégrée consciemment, et toxique si elle remplace nos facultés sans que nous en ayons conscience.
Dans le cadre de la délégation cognitive, cela signifie : déléguer n’est pas trahir, mais oublier que l’on délègue pourrait l’être.
🔹 La prolétarisation cognitive : perdre les moyens de penser
Stiegler parle aussi de prolétarisation cognitive quand nous perdons nos capacités intellectuelles parce que nous les avons trop déléguées à des systèmes techniques.
Il distingue trois formes de pertes :
- le savoir-faire (ex. : fabriquer, calculer, écrire soi-même),
- le savoir-théoriser (ex. : réfléchir, structurer, critiquer),
- le savoir-vivre (ex. : décider, choisir, donner du sens).
Lorsque l’outil pense, trie ou suggère à notre place, sans que nous gardions la maîtrise, nous risquons de devenir propriétaires du résultat sans être encore auteurs du processus.
Stiegler nous invite donc à une forme de lucidité technique : se servir des outils sans s’en laisser dessaisir. Exercice on ne peut plus périlleux.
II. Ce que nous ne faisons plus : la délégation cognitive en actes

L’écriture, comme nous l’avons vu, fut l’une des premières formes de délégation cognitive massivement critiquée, bien avant d’obtenir ses lettres de noblesse. Longtemps soupçonnée de fragiliser la mémoire vivante, elle a fini par devenir le socle de toute pensée durable. Mais l’histoire ne s’est pas arrêtée là. D’autres formes de délégation se sont imposées progressivement, parfois avec les mêmes réticences initiales, souvent avec moins de conscience critique. Du calcul mental au GPS, des moteurs de recherche aux correcteurs automatiques, nous avons cessé de faire certaines choses par nous-mêmes, parce que des dispositifs techniques les font pour nous.
🧠 Définir la délégation cognitive
La délégation cognitive désigne le fait de confier un processus mental à un outil ou un support extérieur, plutôt que de le réaliser soi-même.
On peut déléguer :
- une fonction de mémoire (calendrier, carnet, cloud),
- un raisonnement logique (calculatrice, tableur),
- une prise de décision (GPS, moteur de recherche),
- ou même une formulation intellectuelle (correcteur, assistant rédactionnel, IA).
La délégation cognitive est omniprésente dans notre quotidien : elle peut nous libérer… ou nous désengager sans que nous en ayons pleinement conscience.
Nous allons maintenant explorer quelques-unes de ces formes de délégation cognitive concrètes, devenues si familières (et que l’on ne remet d’ailleurs plus du tout en cause) qu’on en oublie parfois qu’elles ont été, un jour, des gestes intellectuels à part entière. Certaines nous libèrent l’esprit, nous permettent d’aller plus loin, plus vite, avec plus de précision. D’autres nous déchargent, oui — mais au risque, comme je le disais plus haut, de nous désengager. Car chaque outil qui pense pour nous nous enlève un peu de l’effort que nous devions autrefois produire seuls. Il ne s’agit pas ici de les juger en bloc, mais d’en interroger les effets. Déléguer, ce n’est pas forcément trahir. Mais c’est toujours, quelque part, renoncer à faire soi-même. La question devient donc : à quoi renonce-t-on exactement ? Et pour quoi ?
🧠 Déléguer la mémoire
Sur ce point, on est dans ce qu’on pourrait appeler la délégation cognitive de base — presque banale, tellement elle est intégrée à nos usages quotidiens. Mais ce n’est pas parce qu’elle est discrète qu’elle est anodine. Déléguer la mémoire, c’est soulager l’esprit d’un effort… mais c’est aussi accepter de ne plus se souvenir naturellement :
- 📅 Le calendrier numérique (mais aussi non numérique), partagé ou non, nous permet de ne plus retenir les dates importantes, les rendez-vous, les échéances. Nous les confions à un système externe, qui nous les restituera “au bon moment”. Ce qui était autrefois un effort de mémorisation devient une automatisation de rappel.
- 📱 Les notifications et rappels sont des formes ultra-passives de mémoire : elles surgissent d’elles-mêmes (et parasitent fortement, à mon sens, mais c’est un bien autre sujet !). L’attention est externalisée, voire interrompue de force. On ne se souvient pas — on est averti.
- 🗂️ La prise de notes (sur papier ou via des apps comme Notion, Evernote ou même un simple fichier TXT) sert de mémoire de secours. Pratique, mais elle transforme peu à peu notre rapport au souvenir : on note pour ne plus avoir à se souvenir.
- 🧾 L’historique de navigation, le cloud, les messageries archivées : tout est là, tout le temps, consultable. On ne se rappelle pas l’information, on la “retrouve”. Ce qui change, c’est la nature même de la mémoire : moins évocatrice, plus indexée.
- 🎞️ Les photos, enfin, sont devenues les substituts modernes de la réminiscence. On ne se souvient plus d’un moment, on se rappelle l’avoir pris en photo. Et parfois, on le voit plus souvent qu’on ne l’a vraiment vécu. Et oui, même les photos sont une forme de délégation cognitive !
À première vue, ces délégations semblent bénéfiques : elles désencombrent l’esprit, évitent l’oubli des choses pratiques, permettent une forme d’efficacité mentale. Mais elles posent aussi des questions :
Si je n’ai plus besoin de me souvenir… vais-je encore m’attacher ?
Si tout est archivé… vais-je encore raconter ?
Si je délègue la mémoire à l’outil, que devient l’expérience vécue ?
Stiegler, encore lui, dirait ici que la mémoire technique (mnémotechnique) vient court-circuiter la mémoire psychique. On ne pense plus en se souvenant, on pense en retrouvant. Ce glissement a un coût : le souvenir devient trace, mais perd sa charge affective et narrative. Et si vous êtes comme moi, vous essayez — de temps à autre — de résister un peu à cette délégation de confort. De mémoriser un code d’entrée entendu à l’instant. De retenir un numéro de téléphone sans le noter. De vous rappeler, simplement, sans support, d’un rendez-vous ou d’une liste. Non pas pour faire acte de bravoure… mais pour maintenir vivant ce lien fragile entre mémoire et attention, entre effort et présence.
🔢 Déléguer le calcul
Autre pilier de notre activité cognitive : le calcul, c’est-à-dire la capacité à manipuler des quantités, des proportions, des estimations. Longtemps considéré comme un marqueur d’intelligence ou d’instruction, le calcul mental a peu à peu été relégué en arrière-plan par des outils conçus pour le faire à notre place. Et très vite, nous nous sommes laissés faire.
- 🧮 La calculatrice est peut-être l’un des premiers outils scolaires à incarner cette délégation. D’abord interdite, puis tolérée, puis devenue presque indispensable, elle nous a permis d’accéder à des calculs plus complexes — mais au prix d’un certain désapprentissage. Qui fait encore une division avec reste de tête, en dehors de quelques puristes ? Personnellement, quand je fais mes comptes au quotidien, j’essaie de m’en passer. Si le mental ne suffit pas, je bascule au pire sur une opération écrite. Quand je compte mon score à un jeu de société, je fais l’effort de ne pas passer par le calcul de notes ou les additions séparées : je tente de cumuler mentalement, de garder cette agilité abstraite en éveil. Ce sont de petits contrepoids, presque insignifiants sans doute, mais qui me permettent de ne pas m’abandonner totalement au confort. Parce qu’à force de ne plus exercer certaines capacités, on finit par douter de les avoir jamais possédées.
- 📊 Le tableur, comme Excel ou Google Sheets, est un monstre d’efficacité : il calcule, recalcule, agrège, projette. Mais il peut aussi nous désengager de la logique même des opérations qu’on lui demande de faire. On manipule des formules sans toujours les comprendre. L’outil devient une boîte noire.
- 💸 Les applications de gestion budgétaire (Bankin’, Linxo, Lydia, etc.) catégorisent automatiquement nos dépenses. On ne suit plus notre budget, on consulte des graphiques. Le raisonnement financier disparaît derrière une interface visuelle.
- 📈 Et les algorithmes de trading ou de gestion financière vont encore plus loin : ils prennent des décisions, détectent des signaux, optimisent des investissements. L’humain ne calcule plus : il délègue l’analyse, la stratégie, parfois même la décision.
Là encore, le gain est indéniable : rapidité, puissance de calcul, capacité à traiter de grandes masses de données, à éviter l’erreur humaine. Mais le risque est réel : oublier les fondements de ce que l’on fait faire, perdre la main sur les hypothèses, confondre résultat automatisé et justesse intellectuelle. Et si vous êtes comme moi, vous essayez parfois de vous repencher sur une addition de tête, de résoudre un problème sans ouvrir la calculette, de vérifier une règle de trois sans tableur. Non pas pour revenir à l’école — mais pour ne pas se dissoudre complètement dans l’assistance numérique.
📍 Déléguer l’orientation / la navigation
La délégation spatiale occupe une place centrale dans ma vie quotidienne. Aujourd’hui, je suis facteur… mais d’un genre un peu particulier : je sillonne tout le département pour dépanner au pied levé sur des tournées parfois complètement inconnues. Cela fait maintenant plusieurs années que je fonctionne ainsi, et même si j’ai développé des techniques mentales pour réduire l’inconfort du désordre spatial — repérage d’indices visuels, découpage des tournées en segments mémoriels, associations logiques — j’utilise énormément le GPS. Ce recours est à la fois une béquille précieuse et une forme d’abandon. Le plus frappant, c’est que si je retourne dans une zone peu de temps après l’avoir découverte, je parviens souvent à m’en passer : la mémoire topographique a eu le temps de s’imprimer, j’identifie rapidement les artères principaux et les différentes particularités. Mais passé un certain délai, ou dans les cas d’enchevêtrements urbains complexes, je redeviens dépendant du guidage numérique. Globalement, cette délégation a pris une ampleur considérable dans nos vies :
- 🧭 GPS (Waze, Google Maps…). Ces applications ont remplacé les anciennes cartes routières — et je ne fais pas partie de cette génération qui a longtemps résisté à leur adoption. Je les ai intégrées très tôt, sans nostalgie particulière pour les plans en papier. Waze, par exemple, optimise l’itinéraire en fonction du trafic en temps réel, ce qui est redoutablement efficace… mais induit une navigation purement réactive : on suit sans comprendre, on va d’un point A à un point B sans même savoir par où l’on est passé. Chez beaucoup, cela engendre une déconnexion spatiale : on traverse des villages sans jamais en mémoriser l’agencement, ni même le nom. Pourtant, je m’exclus en partie de cette dérive. Comme je le disais : mon métier de facteur m’oblige à m’orienter dans des zones souvent inconnues, à jongler entre repérage GPS et adaptation locale. Comme je sillonne les routes cinq à six heures par jour, mon cerveau reste sollicité, contraint d’enregistrer des repères, d’anticiper, de corriger les erreurs du GPS — qui ne tient pas compte, par exemple, des boîtes aux lettres invisibles, des routes barrées ou des impasses trompeuses. Le GPS, dans mon cas, n’est pas une fin en soi, mais un point de départ. Un outil, pas une délégation totale. Et cela fait toute la différence.
- 🗺️ Systèmes de guidage intégrés. Dans les voitures, les montres connectées ou les applications de randonnée comme Komoot ou AllTrails, ces systèmes prennent aussi en charge la lecture de l’environnement. Un randonneur peut suivre une trace GPS en forêt sans plus lever les yeux : la boussole, les panneaux, l’orientation du soleil deviennent superflus. Et en ville, on suit la petite flèche bleue, même à 50 mètres de sa destination, sans jamais s’orienter à l’ancienne — par logique, repérage ou bon sens.
- 🛫 Moteurs de recherche de trajets (Rome2Rio, SNCF Connect, Citymapper…). Ils automatisent la réflexion logistique : quel transport prendre ? Où changer ? Quelle ligne choisir ? Autrefois, il fallait consulter des horaires, tracer des correspondances, parfois même appeler une gare… Aujourd’hui, en deux clics, on a un trajet optimisé — mais on ne comprend plus comment on y arrive. Si le système tombe en panne, on se sent démuni, comme amputé d’un savoir qui n’a jamais été transmis.
Si l’on y réfléchit bien, c’est un pan entier de nos capacités d’orientation, autrefois vitales, qui est devenu optionnel. À force de ne plus avoir à se repérer par soi-même, le monde devient plus flou, plus interchangeable… et notre mémoire spatiale, plus passive. Mais est-ce un gain ou une perte ?
✍️ Déléguer la formulation
On revient un peu à la gêne initiale liée à la rédaction : mettre ses idées en mots a longtemps été considéré comme un acte profondément humain, intime, révélateur d’un style, d’une pensée, d’une personnalité. Mais aujourd’hui, de plus en plus d’outils se glissent entre nous et nos phrases. Par confort, par gain de temps, ou par peur de mal faire, on délègue… parfois sans même s’en rendre compte.
- ✏️ Correcteurs automatiques (Grammarly, Antidote, Word…). Cela commence par ces outils de correction. Ils étaient autrefois limités à l’orthographe, mais corrigent désormais la grammaire, la syntaxe, et même la clarté du propos. Leur utilité est indéniable — surtout pour les personnes non expertes ou dans un cadre professionnel —, mais à force de valider des propositions préconstruites, on finit par ne plus se poser de questions. Un mot mal orthographié n’est plus l’occasion de réfléchir à son étymologie ou à sa graphie : c’est une faute effacée, sans trace, sans apprentissage.
- 🗣️ Suggestions de texte (Gmail, IA de prédiction…). Dans un e-mail, taper “Je vous remercie” fait aussitôt apparaître “de votre réponse” ou “et vous souhaite une bonne journée”. Ces automatismes fluidifient la communication, mais ils appauvrissent aussi l’acte d’écriture. On finit par écrire des messages génériques, standardisés, où notre voix propre s’estompe. C’est une micro-délégation discrète, quasi invisible, mais qui agit en profondeur : on écrit comme on nous suggère d’écrire.
- 🤖 Rédaction assistée (ChatGPT, Jasper AI, Notion AI…). Et là, on entre dans le vif. On franchit un cap : non plus la correction ou la suggestion, mais la génération du texte. L’IA peut proposer une tournure, un plan, un paragraphe… voire rédiger l’ensemble d’un contenu, un livre, une bibliothèque. C’est tentant — parfois utile — mais c’est là que la vigilance doit redoubler. Car à trop déléguer, on se dépossède. Ce n’est plus nous qui écrivons, mais quelque chose qui écrit à notre place. L’effort de structuration, de formulation, de recherche du mot juste disparaît… et avec lui, l’enrichissement intellectuel qui vient de la lutte avec le langage.
J’en parle d’autant plus que je m’en sers là tout de suite dans une bonne partie de ces exemples, au demeurant, parfaitement pertinents. Avec cet espoir, toujours fragile, de le faire en conscience avec un souci entretenu d’équilibre. La formulation reste, pour moi, un acte que je veux maîtriser… autant que possible.
📊 Déléguer l’analyse ou la prise de décision
Ici, on touche à une autre sphère… et c’est peut-être la forme la plus inquiétante — ou en tout cas la plus opaque — de délégation cognitive. Car ici, on ne parle plus de confort ou de gain de temps, mais de renoncer à réfléchir nous-mêmes. Déléguer l’analyse, c’est accepter que des outils, souvent algorithmiques (et donc biaisés, orientés…), interprètent les données à notre place, tirent des conclusions… voire décident. Ce pan-là de la délégation cognitive ne me concerne pas vraiment, pas directement… mais toutes les structures impactantes publiques et privées s’en saisissent, c’est donc important d’en avoir conscience à mon sens.
- 📈 Outils d’analytique automatisée. Aujourd’hui, les tableurs comme Excel ou les tableaux de bord dynamiques (Power BI, Google Data Studio…) ne se contentent plus d’afficher des chiffres : ils analysent, tracent des tendances, proposent des scénarios. Dans les entreprises, cette couche d’automatisation est précieuse… mais elle peut faire oublier que toute donnée est contextuelle, que les corrélations ne sont pas des causalités, et que des biais (de collecte, d’interprétation, de visualisation) sont toujours possibles. Nous avons peu la main, nous, pauvres mortelles, sur les dérives potentielles et ne pouvons que croiser les doigts sur un maintien minimum de contrôle et de réflexion humaine.
- 🧠 IA décisionnelle (stratégie, marketing, RH…). Certaines IA recommandent des actions à partir de jeux de données complexes : quelle campagne lancer, quel profil embaucher, quel client cibler. Le scoring client, par exemple, classe les individus selon leur rentabilité ou leur « potentiel« , sans que les critères soient toujours explicites. Le risque est alors double : déléguer non seulement le comment, mais aussi le pourquoi. À quoi bon penser, si l’IA a déjà conclu pour nous ?
- 🧬 IA médicale (imagerie, diagnostic, prédiction de traitement…). Là encore, le progrès est réel. L’IA peut détecter certaines tumeurs invisibles à l’œil humain ou suggérer des pistes diagnostiques rarement envisagées. Mais qu’advient-il du regard clinique, de l’expérience du médecin, du doute salutaire face à l’incertitude ? Le danger n’est pas tant l’erreur que la surconfiance dans la machine, et l’érosion de la responsabilité humaine.
- ⚖️ Algorithmes prédictifs (justice, finance, éducation…). C’est le niveau le plus politique de la délégation. Des modèles statistiques évaluent le risque de récidive, le profil de solvabilité, ou même le « potentiel de réussite scolaire« . Là, ce n’est plus seulement une aide à la décision : c’est parfois la décision elle-même, prise par un algorithme que nul ne comprend vraiment. Le juge, le banquier, le recruteur deviennent des agents d’exécution. Et l’humain, un jeu de variables.
Déléguer l’analyse ou la décision est sans doute la forme la plus opaque de délégation cognitive. Ce n’est pas nouveau : bien des choix ont toujours été faits dans des sphères inaccessibles. Mais voir l’automatisation s’y substituer accentue ce sentiment de dépossession. Mon ressenti est ambivalent : dans le domaine médical, l’IA me semble précieuse, capable d’améliorer les diagnostics sans remplacer l’humain. En revanche, dans la finance ou les ressources humaines, j’éprouve une vraie méfiance. L’algorithme trie, optimise, rejette, souvent sans que les critères soient compréhensibles — ni discutables. Ce qui était déjà lointain devient inquestionnable.
🗣️ Déléguer la parole / l’interaction
Parler, répondre, traduire, reformuler… Toutes ces actions sont aujourd’hui prises en charge — ou devancées — par des outils de plus en plus fluides. Longtemps, l’interaction humaine a été considérée comme indissociable de notre présence, de notre voix, de notre attention. Mais désormais, de nombreuses médiations technologiques s’interposent. Par confort, gain de temps ou facilité d’accès, nous déléguons — souvent sans y prêter attention — la parole elle-même.
- 🎙️ Assistants vocaux (Siri, Alexa, Google Assistant…). Ils écoutent, répondent, exécutent. Un message dicté à Siri n’est plus formulé avec soin : il est jeté à la machine, dans un langage parfois déformé, approximatif. L’assistant comprend, reformule, transmet. L’intention reste, mais l’expression se brouille. Ce n’est plus tout à fait nous qui parlons — c’est une interface. Personnellement, et curieusement, c’est une technologie que je n’utilise jamais vraiment…
- 💬 Chatbots automatisés. Que ce soit sur des sites, des hotlines ou même des plateformes publiques, l’interlocuteur est souvent fictif. L’humain croit converser, mais reçoit des réponses issues d’un arbre logique. Cela suffit parfois — pour un suivi de colis, une confirmation, une opération simple. Mais dans d’autres cas, cela fige le dialogue, supprime l’improvisation, interdit la nuance. Ce n’est pas une conversation, c’est un formulaire déguisé.
Je l’ai moi-même constaté à plusieurs reprises… jusqu’ici, j’ai presque toujours réussi à résoudre les problèmes que j’avais. Et je me surprends à me demander : vaut-il mieux ça, ou un centre d’appels externalisé, où l’on peine à comprendre son interlocuteur, pressé, mal formé ou mal équipé ? Le chatbot a ses limites, mais il évite parfois une frustration plus grande encore. - 👨💻 Traduction instantanée (DeepL, Google Translate…). Ces outils permettent de franchir la barrière des langues en quelques secondes, mais sans passer par l’effort de compréhension. DeepL, en particulier, produit aujourd’hui des traductions souvent étonnamment naturelles, loin du mot-à-mot maladroit des débuts de Google Translate. Pourtant, même cette fluidité est trompeuse : le texte est traduit, mais pas appris ; la langue est traversée, mais pas rencontrée. On parle à travers une machine, sans entendre vraiment la logique de l’autre langue. Ce qui est un gain de communication immédiate peut aussi devenir une perte d’altérité, de nuances culturelles, et de progression personnelle. Et là, par expérience, je dirais que ChatGPT est à des lieux de tout ces outils en faisant carrément vivre une langue étrangère.
- 🧏♂️ Synthèse vocale / transcription automatique. L’oral devient texte, le texte devient voix, sans qu’on ait besoin d’y passer. Ce sont des outils puissants, parfois inclusifs, utiles pour les personnes en difficulté ou les usages professionnels. Mais là encore, à force d’enregistrer, convertir, déléguer… on réduit l’attachement à la forme, au rythme, au silence. L’oralité se mécanise. Et encore une fois, comme l’assistanat vocal, je ne suis pas très client de cela même si j’en reconnais l’utilité et la praticité.
🎭 Déléguer l’expression de soi
Sur ce dernier domaine, on pourrait croire que s’exprimer, se montrer, se représenter, est le dernier bastion de notre singularité. Et pourtant, même là, la délégation s’infiltre. Aujourd’hui, de nombreux outils proposent — ou imposent — des formes, des cadres, des esthétiques. L’expression devient préformatée, standardisée… presque industrialisée.
- 🎥 Montage automatique (TikTok, CapCut, YouTube Shorts). En quelques secondes, une appli découpe, synchronise, rythme une vidéo. L’utilisateur choisit un template, une musique, un filtre… et l’outil fait le reste. Le contenu est “personnalisé”, mais rarement personnel. Tout semble fluide, mais tout se ressemble.
- 📷 Filtres Instagram, avatars IA. On modifie son visage, ses traits, sa lumière. On se présente comme on voudrait être vu. Cela peut être ludique ou esthétique, mais cela finit par créer un écart entre soi et son image. L’outil devient un miroir déformant — flatteur, certes, mais déformant tout de même.
- ✍️ Réseaux sociaux pré-formatés. On s’exprime dans des cases, des formats, des hashtags. Même l’opinion devient stylisée : citation en surbrillance, story animée, tweet synthétique. Le fond importe, mais la forme prévaut. Et à force de parler dans les codes du médium, on finit par penser comme il nous le dicte.
- 🎨 Générateurs d’image (Midjourney, DALL·E…). On crée sans dessiner, sans manipuler la matière. C’est fascinant — presque magique. Mais cela interroge : où est notre geste, notre style, notre lente élaboration ? On exprime une idée, certes, mais sans passer par les contraintes du faire. Et c’est souvent là, dans cette contrainte, que se niche la singularité.
Sur ce dernier point, je me sens assez éloigné de cette logique de filtres ou de prémontages vidéo. Pour tout dire, avant d’approfondir la question, j’ignorais même que c’était devenu aussi courant — et aussi simple. En revanche, la génération d’images par IA… je la pratique, mais avec beaucoup de difficulté. Sur chaque sujet que je propose (y compris celui-ci), je dois sans cesse reprendre mes prompts, affiner, corriger, reformuler — et c’est une tâche que je n’apprécie pas particulièrement. Pourtant, je vois bien que certains sont très à l’aise dans cet exercice : ils détournent des visages connus, créent des scènes étonnantes, absurdes ou poétiques, avec une vraie maîtrise. Bref, je reconnais que c’est possible, et même puissant… mais dans mon cas, ce n’est pas encore si fluide. Pas encore vraiment intuitif. Mais je délègue volontiers cette tâche pour différentes raisons : je ne suis pas un artiste, cela me permet d’éviter la lourdeur de devoir sourcer ou de créditer, et quand c’est réussi, ça donne vraiment un rendu original.
« Déléguer n’est pas une déchéance en soi«
En réalité, déléguer n’est pas une déchéance en soi. Comme l’ont montré les philosophes de l’esprit Andy Clark et David Chalmers dans leur célèbre article The Extended Mind (1998), des outils comme un carnet de notes ou un GPS peuvent être considérés comme une extension de notre esprit, dès lors qu’ils sont utilisés de manière fluide, intégrée et constante. Ce n’est pas l’outil qui est en cause, mais la manière dont il s’articule à notre pensée.
🧠 Focus : L’esprit étendu – Une pensée avec prolongements
Dans leur article fondateur The Extended Mind (1998), les philosophes de l’esprit Andy Clark et David Chalmers avancent une thèse radicale : l’esprit ne s’arrête pas aux limites du cerveau. Il peut s’étendre dans des objets, des outils, des dispositifs… à condition qu’ils soient intégrés naturellement au processus cognitif.
Un carnet de notes, un GPS, une liste de courses ou même une application de rappel deviennent alors des extensions fonctionnelles de la mémoire, de l’attention ou de la décision, dès lors qu’on les consulte régulièrement, sans rupture, comme on le ferait avec une capacité mentale interne.
“Si une partie du monde joue un rôle fonctionnel dans notre cognition, elle fait partie de l’esprit.” – Clark & Chalmers
Cette idée ne cherche pas à glorifier la technologie, mais à redéfinir ce que penser veut dire. Ce n’est pas l’outil en lui-même qui est problématique, mais la manière dont nous l’utilisons : comme un soutien actif ou comme une substitution paresseuse.
Autrement dit, on peut penser avec une machine… à condition de ne pas la laisser penser à notre place.
De son côté, l’anthropologue cognitif Edwin Hutchins, spécialiste des systèmes distribués, a montré à travers ses travaux sur la navigation maritime que la cognition n’est jamais isolée dans une tête. Voici sa théorie :
🧭 Focus : Penser à plusieurs – La cognition distribuée selon Edwin Hutchins
L’anthropologue cognitif Edwin Hutchins a développé dans les années 1990 la notion de cognition distribuée, à partir de ses travaux sur la navigation maritime.
Dans un navire, explique-t-il, personne ne connaît à lui seul la position exacte du bateau. L’un lit la carte, l’autre ajuste le compas, un troisième donne les corrections. La pensée n’est pas enfermée dans un crâne : elle circule entre les personnes, les instruments, et l’environnement. Le système entier “pense”.
“Le marin ne pense pas seul : il pense avec sa carte, son compas, son équipage.” – Edwin Hutchins
Cette vision décentre radicalement notre conception de la pensée comme processus intérieur et isolé. Elle rejoint des approches contemporaines (comme The Extended Mind) qui montrent que nous pensons avec les choses, dans des réseaux, en interaction.
Appliquée aux technologies d’aujourd’hui, cette idée nous invite à ne pas opposer humain et outil, mais à comprendre comment l’intelligence peut émerger de leur coopération — à condition de garder une part active dans le processus.
Ce que je perçois aujourd’hui comme inquiétant, ce n’est donc pas la délégation elle-même — c’est sa massification silencieuse, son automatisme, sa capacité à court-circuiter le doute, l’effort, la lente appropriation. À chaque fois que je délègue, je m’efforce de me poser cette question simple, mais décisive : est-ce que je délègue pour mieux penser, ou pour ne plus avoir à y penser du tout ?
III. Ce que l’on peut y perdre : lenteur, effort, transformation
L’impact de la délégation cognitive est bien réel. À l’origine, elle sert à nous soulager — économiser de l’énergie mentale, gagner du temps, simplifier des tâches complexes. Parfois, elle vise l’efficacité : optimiser un processus, automatiser une étape, aller plus vite, plus droit. Et dans bien des cas, cela fonctionne. Mais à force de vouloir aller plus vite, penser plus vite, décider plus vite, on oublie ce que la lenteur pouvait apporter. Et je dis ça alors que je ne suis pas quelqu’un de (positivement) lent. On oublie que l’effort intellectuel n’est pas qu’un obstacle : c’est aussi une matière transformatrice. Ce que l’on délègue, on ne le travaille plus… forcément. Ce que l’on externalise, on ne l’intègre plus tout à fait. Peu à peu, la pensée peut cesser de s’incarner dans des gestes, des résistances, des apprentissages. Surtout quand elle devient trop fluide. Je vais m’arrêter sur ces trois aspects en nuancer et en exposant ma vision.
1. Lenteur : ce temps qui permettait la maturation
Comme je vous le disais, je ne suis pas un apôtre de la lenteur. Je suis impatient, je n’aime pas attendre, et j’ai tendance à vouloir aller vite — dans mes actions, dans mes raisonnements, parfois même dans mes lectures. Déléguer, c’est tentant : on gagne du temps, on avance plus vite, on évite les détours. Mais à vouloir tout accélérer, on risque de perdre autre chose : le temps de l’assimilation, celui du doute fécond, de la maturation silencieuse, de l’idée qui met du temps à faire son chemin. La lenteur, même inconfortable, était un espace de germination intellectuelle. Alors je me demande : comment, avec un profil comme le mien, puis-je espérer faire pousser mes réflexions à leur plein potentiel ? Comment entretenir l’attention longue dans un esprit pressé ? Cette tension, je la ressens chaque jour — et je crois qu’elle mérite d’être interrogée, plus encore que condamnée.
En parallèle de l’inquiétude de Pascal Chabot (évoqué en introduction) sur laquelle je reviendrai un peu après, France Culture m’a aussi fait découvrir Vincent Renault, président de l’Association des professeurs de philosophie de l’enseignement public français, qui, dans la même émission que Chabot, a fait l’éloge de la lenteur dans l’acte philosophique, en exprimant une crainte très claire : que l’usage généralisé de l’IA (notamment dans les lycées et les copies de philosophie) court-circuite ce processus lent et essentiel qu’est l’élaboration progressive d’un problème.
Quand certains regrettent le temps de la lenteur, d’autres expliquent, pragmatiquement mais avec un regret évident, que cette même lenteur est devenue suspecte. Le philosophe Byung-Chul Han, dans Le parfum du temps, propose une lecture précieuse de notre époque : selon lui, nous vivons dans une société où l’accélération est devenue la norme, y compris dans nos manières de penser. Tout doit être rapide, fluide, productif — même l’intellect. La lenteur, elle, est disqualifiée : perçue comme un obstacle, une perte de temps, presque une faute contre l’efficacité. “L’accélération nous prive d’histoires, de mémoire, d’un vrai rapport au monde. Elle nous rend amnésiques.” écrit-il. Han nous invite à réhabiliter la lenteur non pas comme passivité, mais comme profondeur. J’ai donc beaucoup de travail sur ce point…
2. Effort : l’apprentissage passe par la friction
Vous l’aurez compris, je me pose quelques questions toutes les centièmes de seconde. C’est devenu une seconde nature. Je ne suis pas guidé par une méthodologie précise, juste par une forme de tension intérieure entre les interrogations qui se présentent à moi — et ce que j’ai besoin de creuser derrière. Penser, on le dit souvent, c’est lutter contre l’évidence, contre la facilité. Et c’est vrai : en supprimant les obstacles cognitifs, on réduit les occasions d’apprendre, de comprendre en profondeur, de mémoriser durablement. Quand tout devient fluide, prévisible, assisté… il ne reste plus beaucoup de place pour l’effort. Or, c’est souvent dans cet effort que se forme le savoir.
Mais je nuancerais. Pour moi, il n’est pas toujours nécessaire de s’opposer frontalement à l’évidence pour apprendre. Parfois, aller dans le sens du courant, suivre une idée, se laisser porter par une lecture limpide ou une explication claire… c’est déjà s’instruire. Il y a tellement à intégrer, même sans résistance. Cela dit, remonter le courant, tenter des voies de traverse, sortir des chemins balisés — c’est ce qui rend l’apprentissage véritablement vivant. C’est passionnant, c’est indispensable… encore faut-il pouvoir le faire. Encore faut-il qu’il reste un peu de gravité, un peu de rugosité, un peu de silence pour penser.
3. Transformation : ce que le processus fait à celui qui le traverse
Ce n’est pas seulement le résultat qui compte, mais ce que le cheminement produit en nous. Déléguer, c’est souvent évacuer ce moment où l’on tâtonne, où l’on formule, où l’on affine une idée jusqu’à ce qu’elle prenne corps. Et c’est précisément ce processus, long, exigeant, parfois inconfortable, qui transforme. Écrire, réfléchir, reformuler : autant d’actes qui nous travaillent en retour. Il ne s’agit pas d’un simple exercice scolaire, mais d’un geste existentiel. Et même si cela peut paraître abstrait, je me reconnais pleinement dans cette idée de transfiguration par la pensée — comme si, à chaque fois qu’on s’approprie une idée, quelque chose en nous s’élargissait, s’approfondissait.
C’est là que je fais intervenir le philosophe Pascal Chabot, qui a récemment exprimé son inquiétude face à l’essor de l’IA dans le cadre scolaire. Il pose une question simple mais décisive :
Est-ce que l’IA stimule vraiment les capacités rédactionnelles, ou est-ce qu’elle les dissout en les court-circuitant ?
Il va même plus loin, en inscrivant cette mutation dans une perspective civilisationnelle. À l’école, rappelle-t-il, on apprend que l’Histoire commence avec l’écriture : avant, c’était la préhistoire. L’écriture marque le moment où l’humain devient capable de se raconter avec des signes, de produire un récit de soi, de laisser une trace. Et voilà qu’aujourd’hui, par l’incorporation massive de l’écriture assistée, nous déléguons ce geste fondateur. Chabot se demande alors si nous ne basculons pas dans une forme de post-histoire : un moment où l’humain, cessant d’écrire par lui-même, entre dans une ère où le récit de soi n’est plus pleinement incarné, mais externalisé. Ce n’est plus seulement une question d’outils. C’est une question d’identité. Je ne saisis pas encore tout ce que cela implique mais je trouve l’idée passionnante.
IV. Ce que je refuse de déléguer
Comme tout comportement qui peut nous affecter en profondeur, l’essentiel est peut-être, d’abord, d’en prendre conscience. Comme toujours, aurais-je envie de dire. La délégation cognitive existe — et elle ne date pas d’hier. Depuis toujours, l’humanité cherche à alléger son fardeau mental : nouer un fil autour du doigt pour se souvenir, graver des symboles sur de la pierre, construire des machines pour calculer, classer, transmettre. C’est, à mon sens, une démarche située quelque part entre la tricherie et l’ingéniosité. Tricherie, si l’on y voit un contournement de nos limites. Ingéniosité, si l’on y reconnaît cette part de ruse créative qui a toujours accompagné notre évolution. Et peut-être est-ce là un trait constitutif de notre espèce : nous n’avons jamais cessé de penser avec autre chose que notre seule tête. Déléguer n’est pas une déchéance, pour moi, mais plutôt un prolongement, parfois utile, parfois dangereux, toujours révélateur.
Je ne conclus donc pas ce texte par une mise en garde. Ce serait malvenu et un peu facile : je délègue moi-même, quotidiennement, abondamment — et ce texte, en partie, en est le fruit. Si j’ai voulu explorer cette notion, c’est parce qu’elle me passionne. Elle traverse nos vies sans faire de bruit, mais elle est partout : dans une calculatrice, une alarme, une carte routière, un post-it, un moteur de recherche, une télécommande, un assistant vocal. Et encore, je n’ai effleuré qu’une infime partie de ce que nous déléguons chaque jour. Il y aurait tant à dire sur nos carnets de notes, nos dictionnaires, nos téléphones, nos applications de suivi, nos playlists automatiques, nos rappels de rendez-vous. Chacun de ces objets — anodins en apparence — est un morceau de pensée déportée. Une mémoire confiée. Un raisonnement assisté. Reste alors cette question ouverte, que je me pose autant que je la propose : déléguer pour mieux penser ou pour ne plus avoir à penser du tout ? La réponse, je crois, dépend moins de l’outil… que de l’attention qu’on y met.
V. Sources et de quoi prolonger la réflexion
🧠 Émission de référence
- IA : comment faire écrire les élèves ?, émission « Être et savoir » animée par Louise Tourret, France Culture, 27 mai 2024. Avec les interventions de Pascal Chabot et Vincent Renault, sur les effets de l’IA sur la rédaction, l’autonomie et l’acte de penser à l’école.
📚 Ouvrages et articles cités
- Bernard Stiegler, La technique et le temps (tome 1 et suivants), État de choc. Bêtise et savoir au XXIe siècle, éd. Mille et une nuits. Sur la pharmacologie des techniques et la prolétarisation cognitive.
- Andy Clark & David Chalmers, The Extended Mind (1998), article fondateur de la théorie de l’esprit étendu. En ligne en anglais : The Extended Mind – PDF
- Edwin Hutchins, Cognition in the Wild (1995), MIT Press. Sur la cognition distribuée dans les environnements coopératifs complexes.
- Byung-Chul Han, Le parfum du temps (2016), éd. L’Herne. Critique de la société de l’accélération et éloge de la lenteur comme forme de résistance.
- MIT Sloan School of Management, The Illusion of Competence When Using Generative AI Tools, avril 2024. Étude sur la perte de vigilance et l’illusion de savoir générée par les outils d’IA assistée.
🖋️ Autres pistes pour prolonger
- Matthew B. Crawford, Contact. Pourquoi nous avons perdu le monde, et comment le retrouver. Réflexion sur la déconnexion cognitive provoquée par les dispositifs assistés.
- Hartmut Rosa, Accélération. Une critique sociale du temps. Une sociologie du rapport au temps dans les sociétés modernes.
- Nicholas Carr, Internet rend-il bête ? (2011). Sur les effets cognitifs de la dépendance aux outils numériques.

Charte de transparence IA
🧠 Idée : 100 % humaine (merci France Culture)
📁 Structure : travail sur un premier format (pas si) court avec origine de la découverte, origine du mot, phénomènes liés et des sources qualitatives.
✍️ Rédaction : ici, j’ai laissé l’IA dérouler au maximum.
🎨 Illustrations : toutes générées par IA. Et j’avoue que l’exercice devient de plus en plus périlleux. Cela me prend un temps fou d’arriver à formuler mes demandes. Je suis vraiment très mauvais pour obtenir ce que je veux du premier coup !
Intervention globale de l’IA estimée : 70 %







Laisser un commentaire