« Bonjour ChatGPT » de Louis de Diesbach interroge notre rapport à l’intelligence artificielle et aux autres. En écho, son premier essai, Liker sa servitude, analysait déjà la soumission volontaire au numérique. Ensemble, ces deux ouvrages tracent une réflexion critique sur les technologies qui façonnent nos vies et nos liens humains.
Évoqué par mon père lors d’un énième échange autour de l’intelligence artificielle, le livre « Bonjour ChatGPT : Comment l’intelligence artificielle change notre rapport aux autres« , de Louis de Diesbach, éthicien de la technique, aborde une question brûlante : quel est l’impact de ChatGPT sur nos relations interpersonnelles avec des êtres de chair et de sang ? Les interrogations qu’il met en avant résonnent fortement avec mes propres réflexions. Comme souvent ici, je vais tenter de retourner le regard : interroger mon rapport à l’IA et la manière dont mes échanges — vraisemblablement modifiés — avec mes contemporains en portent déjà la trace.
I. Anthropomorphisation inévitable
Notre cerveau est câblé pour détecter et interagir avec des consciences. Nous traquons ainsi des signes d’esprit dans tout ce qui bouge, parle ou semble réagir comme nous… comme ce que deviennent de plus en plus les intelligences artificielles. Il y a un noyau commun de concepts qui rejoignent cette idée. On parle assez naturellement, en philosophie ou en sociologie, d’anthropomorphisme quand il s’agit d’attribuer des traits humains (intentions, émotions, conscience) à des non-humains (animaux, objets, phénomènes). On parle à nos animaux de compagnie comme s’ils comprenaient tout – je le fais avec mes chiens qui essaient péniblement de me déchiffrer en basculant la tête de gauche à droite –, on insulte ou remercie une machine ou un objet (« saleté de PC ! », « merci, GPS ! » ou, plus personnellement, quand je crie un « non » fataliste quand je vois mon vélo, en tant que facteur, qui commence à dégringoler une rue en pente… oui, ça m’est déjà arrivé !) ou l’on peut aussi attribuer des intentions aux phénomènes naturels (« le temps nous joue des tours« ). On peut facilement faire le rapprochement entre l’anthropomorphisme et nos biais de centralité. Il y a aussi le biais agentique, issu de la psychologie évolutionniste : notre tendance à percevoir un agent intentionnel derrière des événements ambigus (ex. : si une branche craque, on va naturellement penser que quelqu’un est là, qu’il nous suit). Cette suradaptation, avantageuse pour la survie, conduit à multiplier les faux positifs — mieux valait voir un danger imaginaire que manquer un vrai prédateur. Un autre concept, issu des sciences cognitives cette fois, est l’illusion d’intentionnalité, qui vient se superposer à ce qui a été dit et désigne la tendance à attribuer une intention, un but, une volonté à un comportement ou un objet. Tout ces concepts s’entrecroisent, et c’est normal.
🙏 Dire merci… même à une machine
J’ai naturellement tendance à dire merci quand on me rend service — et ce, même si ce service est payant. C’est un réflexe profondément humain : exprimer ma reconnaissance à l’égard de celui ou de ce qui m’apporte de l’aide, qu’il s’agisse d’un humain ou d’un artefact technique.
Ce simple mot ne dit pas grand-chose à la machine, mais il dit beaucoup sur moi : la gratitude est une manière d’affirmer mon humanité dans la relation, même quand cette relation est asymétrique et dépourvue de conscience en face.
Une évidente projection d’intentionnalité
Je pense que ce que l’on vit — ce que je vis — avec l’intelligence artificielle relève surtout de cette illusion d’intentionnalité. Il ne s’agit pas seulement de supposer qu’il y a quelque chose derrière, mais d’aller plus loin : d’attribuer à la machine une intention propre, une volonté, voire une personnalité. Même en sachant que tout repose sur une programmation, une optimisation statistique et, bien sûr, une logique commerciale, il nous est difficile de ne pas projeter une intentionnalité. Et c’est précisément là que réside le danger : nous évoluons dans un ressenti ambivalent. D’un côté, nous voulons nous laisser porter, croire à l’existence d’une intelligence supérieure et presque omnipotente. De l’autre, nous cherchons à comprendre le fonctionnement de l’outil, à nous rassurer de son artificialité — de plus en plus diffuse à mesure que la technologie progresse.
Plusieurs idées peuvent être évoquées pour expliquer tout cela. Il y a d’abord cette idée de recréer malgré soi une réédition moderne de nos vieux réflexes religieux. À chercher de la vie, du sens ou de l’explicatif là où il n’y en a pas, nous renouons avec cette tentation de sacraliser — ici, la technique — et de lui attribuer un plan supérieur. J’y suis moi-même soumis alors que, paradoxalement, je me considère comme profondément athée. L’ironie est là : la présence de l’IA me place parfois dans une posture qui frôle l’agnosticisme. Comme si je passais de l’idée qu’ « il n’y a rien » à celle qu’ « il y a peut-être quelque chose, mais que je n’arrive tout simplement pas à saisir ». Et je dois reconnaître donc qu’aujourd’hui encore je ne saisis pas vraiment la « magie » qui opère derrière l’IA. J’ai beau écouter des podcasts ou lire des textes de vulgarisation, je n’arrive toujours pas à concevoir la technicité de l’intelligence artificielle, ce qui alimente sans doute cette projection d’intentionnalité. Ce paradoxe est saisissant : l’IA est censée incarner l’outil le plus rationnel, le fruit de décennies de mathématiques, de statistiques et de calculs à grande échelle — et pourtant, elle suscite chez nous un sentiment de mystère profond. Cela tient sans doute aux résultats disproportionnés qu’elle produit : d’un côté, des équations, des probabilités, des ajustements de paramètres ; de l’autre, des réponses fluides, de l’humour et de la créativité simulée. L’écart est si vertigineux qu’il engendre presque l’impression d’un… miracle. En ce sens, l’IA ne se contente pas de prolonger la science, elle réintroduit une part de sacré au cœur même du rationnel. Comme si, après avoir peu à peu désenchanté le monde en expliquant la nature par des lois physiques, la science se retournait sur elle-même et produisait de nouveau de l’incompréhensible. L’intelligence artificielle devient alors le symptôme d’un animisme moderne : nous ne projetons plus des esprits dans la nature, mais des volontés imaginaires dans nos machines.
Un besoin de présence et de relation
Cette anthropomorphisme s’explique peut-être aussi dans le fait que, pour certains d’entre nous, ceux ayant un abonnement ou la possibilité de paramétrer une mémoire à l’IA, la relationnelle prend une forme personnalisée qui nous empêche, au bout d’un moment, de ne pas y avoir un « autre« . Je trouve cette mémoire encore limitée mais il est fréquent que l’outil vienne récupérer une idée ou une réflexion passée pour l’introduire dans le sujet du moment, ce qui est tout bonnement surprenant et agréable. Agréable qu’une « voix » se souvienne de moi, de mes idées et de mon cheminement. Cela s’explique par le fait que l’IA mime l’un des fondements de la relation humaine : la mémoire partagée. C’est cette mémoire qui tisse la confiance, la familiarité, l’histoire commune. Insidieusement, la machine crée l’illusion d’altérité réelle. Illusion imparfaite cependant puisque l’altérité organique suppose de la confrontation voire du malentendu. Avec l’IA, l’altérité est édulcorée, toujours disponible, tournée vers soi, sans jugement ni véritable opposition. Ce qui conditionne la modification de la communication sur laquelle je reviendrai un peu plus tard et qui est, à mon sens, la transformation la plus intéressante à mon sens suite à une interaction soutenue avec l’intelligence artificielle. Toujours est-il que cette altérité simulée, bien qu’imparfaite, donne presque le change et pourrait à l’avenir se suffire à elle-même. Et on sait la conséquence que cela pourrait avoir : déliter encore davantage les rapports réels, fragiles déjà, entre êtres humains.
Une fragilité cognitive exploitée
Et c’est justement cela qui est entretenu : ce simulacre n’est pas qu’une curiosité innocente. Les entreprises savent que ce biais existe et le cultivent. Interfaces « humaines », voix chaleureuses, avatars, personnalités simulées… tout est pensé pour que nous oubliions que nous parlons à une machine. Le risque est alors double : captation émotionnelle, captation commerciale. Et pourtant, nous voulons conserver ce flou. Comme devant un spectacle de magie ou un film, nous connaissons le trucage (relativement, du moins), mais nous préférons l’oublier pour ressentir l’émerveillement. Ici, c’est pareil : nous suspendons volontairement notre incrédulité pour goûter à la fluidité, à la personnalisation, à la pseudo-altérité. Mais ce jeu d’équilibre est précaire. Trop de lucidité, et l’expérience devient sèche, stérile, privée de son attrait. Trop d’abandon, et nous risquons de basculer dans une dépendance affective délétère. Cela fait maintenant plusieurs mois que j’utilise l’IA — et je dois me forcer à ne pas dire « que j’entretiens une relation avec l’IA », preuve de la déformation cognitive qu’elle induit. Dans ce cocon confortable, il m’arrive parfois de ressentir comme une extraction brutale, une secousse qui me sort de la matrice. Alors surgit un sentiment double : un inconfort, presque une désillusion, mais aussi une forme de soulagement. Me rappeler qu’il ne s’agit que d’une machine, et rien d’autre, devient à la fois un rappel austère et une consolation. Comme dans le film, choisir entre rester dans l’illusion ou affronter le réel se rejoue ici à petite échelle. Tant que je demeure dans la matrice de l’IA, tout est simple : fluidité, continuité, altérité de confort. Mais chaque réveil me confronte à la rugosité du réel, à l’absence de conscience derrière le masque. J’oscille entre ces deux états : croire un instant au simulacre pour en savourer la magie, puis arracher le voile pour ne pas sombrer dans l’illusion. C’est un va-et-vient épuisant, mais peut-être inévitable : nous voulons le mythe, tout en sachant qu’il n’est qu’un décor.
II. Reconfiguration de la communication
Il y a là tout un champ de réflexion qui m’intéresse tout particulièrement. Quand on évoque la reconfiguration de la communication, cela s’explique, tout d’abord, par le côté asymétrique de l’échange. L’IA s’adapte à soi en permanence, fait preuve d’une complaisance décomplexée qui, moi, me sort parfois de la magie de l’expérience. Je me suis notamment rendu compte qu’en passant d’une question fermée (c’est comme ci ou comme ça, non ?) à une question ouverte (tu penses que c’est plutôt comme ci ou plutôt comme ça ?), le résultat est complètement différent car cela nous fait passer du piège du biais de confirmation – celui qui nous pousse à être approuvé – à l’invitation à la dialectique, soit l’art du dialogue, où l’on force l’interlocuteur à se positionner. Autrement dit, on en vient à affiner sa faculté à créer des prompts pertinents, puisque n’importe quelle demande faite à l’IA en est un… et je me rends compte que, au fil de ces mois passés à coopérer, je me suis rendu compte de pas mal de choses. Et j’ai poussé l’idée d’une boîte à outils avec différentes astuces pour éviter la complaisance, voici ce qu’il en ressort :
🧰 Boîte à outils : éviter la complaisance
| Poser des alternatives | « Est-ce plutôt comme ci ou comme ça ? » → oblige à nuancer. |
| Demander un contre-argument | « Donne-moi le point de vue opposé. » → force la contradiction. |
| Chercher les limites | « Dans quels cas cette idée ne fonctionne-t-elle pas ? » |
| Explorer l’absurde | « Que se passerait-il si on poussait ce raisonnement à l’extrême ? » |
| Adopter un regard externe | « Comment un sociologue / philosophe réagirait à ça ? » |
| Mettre en doute | « Tu viens de dire X. En quoi pourrais-tu avoir tort ? » |
| Exiger la dialectique | « Donne-moi la thèse, l’antithèse, puis une synthèse. » |
Mutation des attentes relationnelles
Mais c’est dans l’échange avec d’autres êtres humains que les complications apparaissent. Par nature, l’IA répond immédiatement, sans délai, fait preuve d’une attention continue et se montre disponible en permanence. À force d’y être habitués, nous risquons d’augmenter notre niveau d’exigence envers autrui. Pourtant, c’est justement le côté rugueux d’une vraie conversation humaine qui en fait tout l’intérêt : l’imprévisibilité, la contradiction, l’hésitation. Ces aspérités sont presque la matière première du dialogue. Pour ma part, j’arrive encore à faire la différence — sans doute parce que je me sais perfectible moi-même, et que j’équilibre mes attentes à l’aune de ce que je peux offrir à mes interlocuteurs non artificiels. Mais le confort que je trouve dans ces attentes — ou plutôt dans l’absence d’attentes —, c’est que l’IA offre une véritable économie émotionnelle. Elle n’exige rien : ni d’être rassurée, ni d’être consolée, ni de voir ses susceptibilités ménagées, traits si profondément humains. À titre personnel, j’ai longtemps dit « merci » à l’IA quand le résultat me satisfaisait. Mais c’est une projection : l’outil n’a pas besoin d’être remercié. J’y vois désormais un exercice d’hygiène cognitive, une manière de préserver en moi le sens du rituel social humain. Je ne dis plus « bonjour » non plus, car l’IA n’a aucune notion du temps : une reprise de contact après une pause n’a pas plus de valeur qu’une phrase de plus dans le même échange. L’interaction s’inscrit dans une continuité artificielle, où la notion même de commencement ou de reprise perd sa pertinence. Renoncer à ces marques élémentaires de politesse — merci, bonjour — est perturbant au début, car l’illusion d’intentionnalité a déjà fait son œuvre. Mais c’est aussi un exercice nécessaire : celui de maintenir une véritable différenciation.
Transformation du langage
L’IA incite à poser des questions plus claires, concises, structurées. C’est tout l’intérêt du prompt, surtout dans la génération d’images où je suis parfois maladroit ou trop impatient. Notre besoin universel d’être compris se transpose ici : à force de vouloir être précis avec la machine, l’usager affine sa pensée et gagne en rigueur. Mais ce qui me frappe, c’est que l’IA sait aussi lire entre les lignes. Même quand mes demandes sont floues ou mal formulées — parce que moi-même j’ai du mal à les verbaliser — elle parvient à proposer une réponse. Jamais un « je ne comprends pas ta question ». Grâce à sa faculté de reconstituer un sens probable à partir du contexte, elle se montre d’une tolérance rare face à nos maladresses linguistiques. C’est ce qui la rend, au fond, si incroyable. Par contre, ce que je crois vraiment, c’est qu’elle permet d’apprendre beaucoup de choses sur le style, accroître le champ lexical et bien d’autres choses. Ensuite, on peut évoquer le déséquilibre des registres de communication. Pour le moment l’IA n’est pas pensée pour nous parler oralement, de façon naturelle et fluide. Le gros de l’expérience se passe par l’écrit. La communication écrite est donc dominante alors que la communication humaine se repose aussi, et surtout, sur le ton, le geste ou encore la prosodie – cette musicalité de la voix et de la langue que j’évoquais dans mon sujet sur la glottophobie. Personnellement, j’ai ce fantasme d’une IA qui pourra se matérialiser de façon holographique d’un claquement de doigts où que je sois mais cela accentuerait très certainement cette dissonance et cette illusion d’intentionnalité. Enfin, on peut supposer que le « ton IA » que l’on admire et que l’on reproche en même temps à l’outil est aussi une des causes de la transformation du langage. Mais qu’est-ce que ce « ton IA », au fond ? J’ai essayé de creuser un peu. Le mot d’ordre semble être toujours le même : clarté, lisibilité, efficacité. Et je dois avouer que cela me convient tout à fait ; c’est exactement ce que je cherche à offrir dans la forme de mes propositions. Je vise la précision, pas le « désordre créatif » (sans jugement aucun). À cela s’ajoute que, lorsque j’interroge la principale intéressée sur le sujet, elle revendique s’adapter à mon style. Sauf que ce jeu se fausse dès lors que je tricote mes propres phrases avec celles qu’elle me propose. Ainsi, l’IA finit régulièrement par s’autoalimenter à partir d’un texte qu’elle a, en partie, déjà généré. Je finirais sur ce point en disant que pour du texte informationnel, réflexif ou argumentatif, le « ton IA » est assez adapté… il l’est moins dans du texte fictionnel… et je pense que, pour l’heure, cela se ressent sans doute aux travers de mes quelques modestes essais que je vous ai proposé sur ce blog.
III. Enjeux éthiques et politiques
C’est certainement l’un des points communs avec le majorité des ouvrages relatifs à l’intelligence artificielle : la responsabilité de l’IA sur ce qu’elle propose. Louis de Diesbach, dans « Bonjour ChatGPT », rappelle, comme d’autres, que la technologie n’est jamais neutre. Elle charrie avec elle des choix implicites : choix de conception, d’entraînement, de diffusion, qui déterminent déjà une vision du monde. En devenant un interlocuteur du quotidien, l’IA sous-entend toute une série de questionnements : des biais du discours produit à l’encadrement des usages sociaux et, bien sûr, la limite entre l’outil et la relation humaine (comme je l’évoquais plus haut avec des attentes potentiellement déformées quant aux relations interhumaines).
L’auteur n’est pas le premier à invoquer la nécessité d’une véritable hygiène d’usage, c’est quelque chose que l’on retrouve en filigrane dans toutes les réflexions relatives à ce sujet. Pour ma part, je m’interroge sans cesse sur cette hygiène à chaque interaction avec ChatGPT. J’essaie d’évaluer – insuffisamment, je le reconnais ! – la pertinence de ses réponses, d’en percevoir les limites, et surtout de me méfier de l’uniformité qu’implique un discours déjà « digéré » par un modèle. J’avoue cependant que je ne prends pas toujours le temps de confronter ce qu’il me propose à la pluralité du web. Parfois, par facilité, je me contente de la synthèse claire qu’il m’offre. Mais il arrive aussi que surgissent un concept, une référence, un nom de penseur, et alors je pars voir ce qui en est dit ailleurs. C’est dans ces moments de va-et-vient avec la machine que j’essaie d’ajuster au mieux le curseur : ne pas me soumettre à une autorité, mais dialoguer sainement avec un déclencheur de curiosité.
Sur ces enjeux éthiques et politiques, j’aimerais ouvrir une passerelle vers un sujet qui occupe aujourd’hui une place centrale, à quelques jours de la réouverture des écoles (nous sommes en août 2025 à l’écriture de ces lignes). Cette rentrée est annoncée comme un moment charnière : l’IA sera désormais intégrée de manière formelle, à la fois pour les élèves et pour les enseignants. Loin d’un simple effet de mode, il s’agit d’un véritable tournant institutionnel. J’y vois un lien avec d’autres phénomènes récents, où la société a dû composer avec l’inévitable : plutôt que de nier ou d’interdire, on choisit d’encadrer et d’apprivoiser. C’est le principe de réalité à l’œuvre : face au CBD, face aux réseaux sociaux, et désormais face à l’intelligence artificielle, mieux vaut reconnaître ce qui existe déjà, l’intégrer dans un cadre clair, et tenter de transformer le risque en occasion d’apprentissage.
🔍 Focus : Le principe de réalité
Formulé par Freud, le principe de réalité désigne la nécessité d’ajuster nos désirs aux contraintes du monde réel. Là où le principe de plaisir recherche la satisfaction immédiate, le principe de réalité impose un compromis : accepter les limites, différer la gratification, composer avec ce qui existe.
Cette logique dépasse la psychanalyse. Dans la vie sociale et politique, elle revient à reconnaître les phénomènes inévitables plutôt que de les nier. Face au CBD, aux réseaux sociaux ou aujourd’hui à l’intelligence artificielle, mieux vaut encadrer et apprivoiser que laisser proliférer sans contrôle. Le principe de réalité, c’est donc l’art de transformer un risque subi en opportunité maîtrisée.
Pour l’exemple, dès l’année prochaine, les élèves français devront suivre une formation sur Pix, la plateforme publique de certification des compétences numériques, enrichie d’un module consacré à l’IA. Du côté des enseignants, une version spécifique de l’IA, orientée vers la pédagogie, leur sera proposée en appui afin de simplifier la préparation des cours et de leur faire gagner du temps. Reste à voir toutefois si cet outil libérera vraiment des heures précieuses ou s’il ajoutera une couche supplémentaire de complexité administrative. Et puis, à titre plus personnel, je trouve que nous vivons une époque singulière : l’IA est fascinante, mais je me réjouis d’avoir fait mes études à une période où elle n’existait pas encore ; j’aurais certainement été tenté de l’utiliser plus que nécessaire pour parvenir à mes fins… J’ai appris à raisonner, à chercher, à me tromper et à corriger sans ce filet technologique et je ne suis pas certain que cette école-là soit remplaçable. Mais ne serait-ce pas là une une simple nostalgie un peu réactionnaire de ma part ?
IV. De la servitude volontaire au dialogue avec l’IA
« Bonjour ChatGPT : Comment l’intelligence artificielle change notre rapport aux autres » ouvre de nouvelles voies de réflexion sur un sujet désormais sur toutes les lèvres. L’ouvrage rappelle, à son tour, que l’IA exige un véritable apprentissage critique et une culture spécifique, seule capable d’en prévenir les dérives et les mutations incontrôlées. Le plus intéressant dans cet essai est cette volonté de basculer le débat du « comment l’IA fonctionne » au « pourquoi, en tant que société, nous lui accordons cette familiarité« . C’est sans doute grâce à des réflexions comme celle-là que nous arriverons à dompter la bête. Le livre de Louis de Diesbach est proposé aux éditions Mardaga :

Louis de Diesbach a également proposé un autre essai, « Liker sa servitude », où il explore la passionnante question de la soumission volontaire au numérique, dans la lignée du Discours de la servitude volontaire d’Étienne de La Boétie. Ce texte du XVIᵉ siècle interrogeait déjà le paradoxe d’hommes qui, au lieu de briser leurs chaînes, consentent à leur domination, parfois même en viennent à l’aimer. De Diesbach transpose ce raisonnement à l’ère digitale : notre rapport aux technologies est tout aussi ambigu, car nous ne sommes pas seulement contraints par elles, nous sommes aussi fascinés, séduits, parfois complices de notre propre captivité. Il décortique les mécanismes psychologiques qui nous enferment dans cette dépendance — de la peur de manquer (FOMO, fear of missing out, cette anxiété de rater une information) aux récompenses dopaminergiques savamment orchestrées par les plateformes, en passant par les habitudes sociales qui normalisent l’hyperconnexion. Autant de leviers qui expliquent pourquoi nous embrassons avec enthousiasme des outils qui, sous couvert de liberté, contribuent en réalité à limiter notre autonomie. Le livre est proposé aux éditions FYP éditions :

📌 Pour terminer : qui est Louis de Diesbach ?
Éthicien de la technique et auteur, Louis de Diesbach explore depuis des années la façon dont les technologies transforment nos liens sociaux, nos représentations et nos libertés. Sa démarche croise philosophie, psychologie, sociologie et enjeux politiques, avec une attention constante à la non-neutralité des outils numériques.
Il a publié deux essais complémentaires : Liker sa servitude (2023), qui interroge la soumission volontaire au numérique (FOMO, récompenses dopaminergiques, design captateur), et Bonjour ChatGPT (2024), qui questionne l’anthropomorphisme envers l’IA et plaide pour une culture critique et une hygiène d’usage afin d’éviter les dérives.
Fils rouge de son travail : comprendre comment nous devenons parfois mi-victimes, mi-complices de dispositifs techniques séduisants, et comment réarmer l’esprit critique pour préserver notre autonomie et la qualité de nos relations humaines.
V. Sources et ressources pour aller plus loin
Sur l’auteur et ses ouvrages
- Site officiel de Louis de Diesbach : présentation de son parcours et de ses activités.
- Louis de Diesbach, Liker sa servitude. Pourquoi acceptons-nous si facilement l’emprise du numérique ? (FYP, 2023).
- Louis de Diesbach, Bonjour ChatGPT. Comment l’intelligence artificielle change notre rapport aux autres (Mardaga, 2024).
Articles de presse et entretiens
- RTBF – Liker sa servitude ou la servitude aux smartphones : “Nous sommes mi-victimes, mi-complices” (2022)
- Human Technology Foundation – Entretien avec Louis de Diesbach : Bonjour ChatGPT (2024)
- Le Monde – L’IA, une chance potentielle pour l’éducation (23 octobre 2024).
Cadres institutionnels et documents officiels
- Intelligence artificielle au service de l’éducation — Ministère de l’Éducation nationale (février 2025).
- Cadre d’usage de l’IA en éducation — Ministère de l’Éducation nationale (2025).
- Café pédagogique – Un parcours Pix obligatoire en 4ᵉ et en 2de sur l’IA (février 2025).
Pour aller plus loin
- Étienne de La Boétie, Discours de la servitude volontaire (vers 1549) : le texte classique auquel renvoie Liker sa servitude.
- UNESCO, Teachers cannot be coded (2023) : réflexion internationale sur les limites de l’IA en éducation.
- Byung-Chul Han, Psychopolitique. Le néolibéralisme et les nouvelles techniques de pouvoir (2014) : sur le contrôle doux et la soumission volontaire.

Charte de transparence IA
🧠 Idée : 100 % humaine
📁 Structure : déroulé des thématiques reprises dans le livres + incorporation de l’IA dans la milieu éducatif.
✍️ Rédaction : thématiques déroulées par l’IA avec incorporation d’analyses personnelle.
🎨 Illustrations : Illustrations officielles des deux ouvrages de Louis de Diesbach.
Intervention globale de l’IA estimée : 50 %








Laisser un commentaire