Passer au contenu principal

Paramètres des cookies

Nous utilisons des cookies pour assurer les fonctionnalités de base du site Web et pour améliorer votre expérience en ligne. Vous pouvez configurer et accepter l'utilisation des cookies et modifier vos options de consentement à tout moment.

Essentiels

Préférences

Analyses et statistiques

Marketing

NE FAITES PLUS D’ÉTUDES SUPÉRIEURES

Avatar: Admin Harmonia Admin Harmonia Validé

# NE FAITES PLUS D’ÉTUDES SUPÉRIEURES Apprendre autrement à l'ère de l'IA

![][image1]

#

# Panique

Nous avons une confrontation à faire. Nous sommes désemparés. Depuis la sortie de ChatGPT 3.5, en novembre 2022, nous échangeons des messages sur nos chansons personnelles, sur les systèmes d'apprentissage, sur les possibilités offertes par ces interfaces à intelligence artificielle, comme ChatGPT. On s'appelle les uns les autres. On en parle des heures.

* « Le monde est devenu fou » * « Le monde ne sera plus jamais le même. » Cela ne nous réjouit pas. Nous étions bien adaptés à celui d'avant. La rente (cet avantage donné par la possession de compétences pour la période passée) est devenue un désavantage. Le passage à la nouvelle ère, celle de l'Intelligence Artificielle (IA) aurait pu être bien plus confortable. Un monde de technologies puissantes mais pas trop, utiles mais pas dérangeantes. Du confort en plus, sans troubles. * « Ce qui nous choque, c'est que nous n'avions pas vu arriver la vague. Ce que nous observons et prévoyons n'était pas nécessairement ce que nous souhaitions. Ne tirons pas sur le messager. »

Bien sûr, il y a les émotions géopolitiques, l'affaiblissement de l'Occident et les menaces environnementales. Et maintenant l'échelle, c'est la façon dont les progrès de la technologie vont forcer, dans un avenir proche, à des changements d'une ampleur sans précédent.

Notre monde s'effondre. Et ce sont les jeunes qui vont sentir en premier les secousses. Ce qu'ils ont appris à l'école est déjà obsolète. Ce qu'ils vont apprendre aussi.

Longtemps, les études supérieures furent la voie royale vers l'ascension sociale. On étudiait pour devenir quelqu'un, pour gagner sa place dans le monde et pour obtenir ce précieux diplôme, un passeport vers la classe moyenne. Ce diplôme était un atout de manière républicaine, à la différence près qu'il ne se transmettait pas. Il se méritait.

Dans le monde qui se dessine, ce diplôme ne vaut plus rien. Ou plutôt, il ne garantit plus rien. Pire, il est une véritable imposture, une promesse de succès qui ne fonctionnera plus. Une imposture dangereuse.

L'humanité est en train de vivre la révolution la plus rapide et la plus radicale de son histoire. Des avancées technologiques que nous connaissions à une époque vont devenir, à l'ère de l'IA, notre quotidien. L'IA nous offre une maîtrise inédite de notre environnement. Grâce à elle, l'homme pourra enfin se libérer des tâches répétitives, du labeur sans s'adapter pour vivre à nouveau. L'IA nous a promis de nous défendre, de nous réchauffer, de nous transporter et de prolonger nos activités après la tombée de la nuit. Le feu a modifié notre nature même. Il a assujetti et adapté la nature, un génie technicien, capable de sublimer des forces naturelles pour les retourner contre le monde.

L'IA représente un saut d'une ampleur comparable, mais qui s'effectue à une vitesse folle, par rapport aux révolutions précédentes. Sa mise en œuvre a commencé à transformer, au fur et à mesure, nos sociétés. L'IA va s'imposer en quelques années, bouleversant nos manières de travailler, de créer, de penser et même d'aimer. Elle étend le champ de la cognition que nous considérions comme notre apanage. Elle dépasse désormais l'homme en intelligence pure, notamment en capacité à agir ou à produire, elle nous concurrence dans des capacités intellectuelles que nous estimions exclusives. Elle questionne la frontière entre l'humain et la machine, l'esprit et l'algorithme, le créateur et l'outil. Nous sommes en passe de passer du rôle d'Agent Incarné à celui de passif des technologies que nous utilisons.

Avec le feu, nous avons changé notre relation à la matière. Avec l'IA, c'est notre rapport au langage et à l'intelligence qu'il faut reconfigurer. La technologie, avant, était un simple décideur. Bientôt peut-être, elle prendra l'initiative. Nous ne sommes plus seulement des Homo faber, mais des Homo delegator puisque nous externalisons nos choix, notre mémoire et notre intelligence à la machine. De simples utilisateurs, nous nous retrouvons en partie co-créateurs, avec des idées fabriquées ailleurs, et d'autres formes de raisonnement.

Depuis la révolution industrielle, nos économies ont reposé sur une stratification des emplois et des compétences. Le système d'éducation avait pour but de permettre ce type de raisonnement, de création et de décision qui était au sommet de la pyramide sociale. L'illustration des masses des travailleurs jusque-là et des centres urbains entiers voués à la machine. Les travailleurs étaient organisés selon une logique de chaîne, les machines déterminaient les différences de condition, redonnant la vie et structurant les sociétés. Il y avait des tâches manuelles, des tâches créatives, et des tâches de service. La rémunération était le reflet des talents. Or, c'est ce pour quoi l'Intelligence Artificielle est en train de faire table rase, pour le meilleur et pour le pire.

Nous assistons à un tournant d'une révolution économique et technologique. Il s'agit d'une mutation neuronale anthropologique. Comme le feu a remodelé nos sociétés et nos corps, l'IA va redessiner notre cerveau. Reste à savoir si, comme pour le feu, nous aurons l'intelligence de la maîtriser.

Les études supérieures telles qu'elles existent sont périmées. Les universités et les écoles sont mal parties. Car il y a une dissonance de rythme et de préoccupation. Pendant que les universités sont obsédées par l'éthique (bien souvent au détriment du niveau), et par une certaine bien-pensance (ce qui est souvent contradictoire), la vraie vie, elle, va les dépasser. Une IA passera les concours, disparaîtra des cancers, optimisant des lignes de code ou rédigeant un avertissement plus rapidement qu'un agrégé. L'enseignement supérieur avance à la vitesse d'un escargot asthmatique. Pendant que le monde extérieur se transforme, porté par la croissance exponentielle des capacités computationnelles. L'enseignement supérieur était fait pour un monde qui n'existe plus. Il doit être repensé à l'aune des transformations de ce monde, en suspendant toute complaisance. Il s'agit de repenser l'enseignement supérieur. Il doit être repensé.

Il est urgent de réagir. En 2023, la culture générale était un outil que l'on a préféré délaisser. Le système a été pensé pour une époque où le savoir était rare et difficile d'accès. C'était un autre monde. Il fonctionnait bien quand le professeur était l'homme le plus cultivé de la classe, la référence incontestable. Ce n'est plus le cas. Son savoir est dépassé par des machines. Et sa culture aussi. En 2023, il sera toujours dépassé par ChatGPT, Gemini ou Claude : les étudiants auront dans leurs poches des professeurs de tout, à temps plein.

Une des questions majeures, celle des contenus : qu'est-ce qu'on apprend, quelles valeurs conseiller à nos enfants ? Nous cherchons ici à apporter des éléments de réponse à ces questions.

Ce livre ne vise pas un manifeste contre la connaissance, ni une complainte réactionnaire. Ce n'est pas davantage un manifeste technophobe naïf, ni une déclaration de guerre à l'enseignement supérieur. Il affirme simplement que les outils éducatifs, tels que la mémorisation, la pensée linéaire, ou un savoir encyclopédique, condamneront dans le futur des générations entières à des modèles mentaux, des temporalités et des structures de carrière qui apparaissent de plus en plus obsolètes.

L'école, l'université ou une voie relative à l'université et celui où les jeunes sont diplômés, le monde va muter. Des métiers vont disparaître. Les savoirs vont changer. Les compétences exigées dans le monde du travail, ou du métier du futur ne seront pas ceux du passé.

Nous ne croyons pas à la fin du travail, du moins pas tout de suite. Mais nous croyons à la fin de la scolarité comme moment isolé dans la vie. Le cours en cathédrale s'épuise. Il faut en fait apprendre tout le temps. Nous ne croyons pas non plus à la fin des facultés, celles de synthétiser et même de répondre aux tests. Le rapport aux savoirs va se transformer de telle façon que l'enseignement supérieur traditionnel sera moins en phase que jamais. Le modèle est cassé.

« J'étudie, puis je travaille » est mort. Désormais, il faudra apprendre toujours, vite, sans attendre qu'on nous y force. Les humains ne vont pas disparaître de la photo, mais ils n'y auront plus la même position. Des robots, oui, mais plus seulement en usine. Et dans les bureaux. Au bureau, les IA savent plus de choses que jamais. Pas de place pour la paresse intellectuelle en 2035\. Pourquoi accepter passivement le remplacement par la machine, quand on peut apprendre, dès à présent, et éviter la servitude volontaire ?

Pourquoi ce livre, pourquoi nous ? Parce que nous faisons partie de ceux qui ont le plus profité du système. Des études, des salaires confortables. Et aussi parce que nous sommes diplômés, dont deux doctorats, cinq Grandes Écoles et deux agrégations. Nous avons aussi donné des milliers d'heures d'enseignement. Les bancs de l'université et des grandes écoles nous sont familiers. Où est la formation ? Est-elle encore la bonne voie pour survivre à l'IA ? Parce que nous ne voulons pas que nos enfants et ceux des autres soient sacrifiés sur l'autel d'un modèle périmé. Ce que nous avons fait ne sera plus possible demain.

Nous ne disons pas : n'apprenez plus. Au contraire. Apprenez plus. Toujours plus. La bonne nouvelle, c'est que l'IA va nous y aider. Apprendre devient ludique, sans se fatiguer. Nous disons : désolidarisez votre pensée de votre apprentissage. Apprenez tout le temps. Apprenez plus vite que le monde ne change. Ce livre est une tentative pour y aider. Il décrit une nouvelle voie qui mise sur l'être humain.

Ce livre est un acte de responsabilité. Il ne s'agit pas de critiquer le passé, mais de dire la vérité sur l'avenir. Si l'enseignement supérieur garde encore une valeur demain, ce sera au prix d'une transformation profonde. Et d'anticiper une inévitable désintégration professionnelle et un mécontentement social.

« Ne faites plus d'études » n'est pas une provocation. C'est un avertissement. Mieux : un appel au sursaut cognitif.

---

Résumé du texte

Ce texte est un manifeste alarmiste sur l'obsolescence du système d'enseignement supérieur face à la révolution de l'intelligence artificielle (IA). Les auteurs, eux-mêmes issus de l'élite académique, soutiennent que le modèle "études puis travail" est mort et que les diplômes traditionnels ont perdu leur valeur de garantie pour l'avenir.

Ils comparent l'impact de l'IA à celui de la maîtrise du feu, une mutation anthropologique radicale qui redéfinit notre rapport à l'intelligence et au savoir. Selon eux, l'université est trop lente et déconnectée pour s'adapter à la vitesse exponentielle du progrès technologique. Le savoir encyclopédique et la mémorisation deviennent inutiles lorsque des IA comme ChatGPT peuvent servir de tuteurs permanents.

Le message central n'est pas d'arrêter d'apprendre, mais d'apprendre différemment : de manière continue, rapide et agile, en utilisant l'IA comme un outil. Le livre se présente comme un "appel au sursaut cognitif" pour éviter une crise sociale et professionnelle majeure, en abandonnant un modèle éducatif périmé pour une nouvelle voie centrée sur l'adaptation constante.

---

Mon avis sur le texte

Ce texte est percutant et soulève des questions fondamentales. Voici une analyse de ses forces et de ses points de discussion.

Points forts :

* Un sentiment d'urgence justifié : Le ton alarmiste, bien que parfois excessif, a le mérite de secouer le lecteur et de le forcer à prendre conscience de l'ampleur des changements en cours. La révolution de l'IA n'est pas une simple évolution technologique, et le texte le retranscrit bien. * La crédibilité des auteurs : Le fait que la critique vienne de "ceux qui ont le plus profité du système" (docteurs, agrégés...) donne un poids considérable à l'argument. Ce n'est pas une critique extérieure, mais une remise en question interne, ce qui la rend plus puissante. * La pertinence de la thèse centrale : L'idée que l'apprentissage doit devenir un processus continu tout au long de la vie est devenue un consensus. Le texte l'articule de manière très directe en déclarant la "mort" du modèle séquentiel études-travail. * L'analogie avec le feu : Comparer l'IA au feu est une métaphore puissante. Cela souligne bien qu'il s'agit d'un changement fondamental qui reconfigure la société et l'humain lui-même, et non d'un simple outil supplémentaire.

Points de discussion et nuances :

* Le risque de la généralisation : Affirmer qu'un "diplôme ne vaut plus rien" est une hyperbole. Si leur valeur relative change, de nombreux diplômes (notamment dans les domaines techniques, la santé, l'artisanat...) conservent une très forte valeur. Le texte manque de nuance sur ce point. * Quelle est "la nouvelle voie" ? Le texte est très efficace pour déconstruire le modèle existant, mais il reste assez vague sur les solutions concrètes. Il parle d'une "nouvelle voie qui mise sur l'être humain" mais ne détaille pas les compétences à développer (esprit critique, créativité, intelligence émotionnelle, collaboration ?) ni les méthodes pédagogiques à mettre en place. * Le rôle de l'université : Le texte réduit l'université à la simple transmission d'un savoir que l'IA rendrait obsolète. C'est oublier ses autres missions : la recherche fondamentale, la socialisation, l'apprentissage de la rigueur intellectuelle, le développement de l'esprit critique, et la création de réseaux. Ces aspects sont plus difficiles à remplacer par une IA.

En conclusion, ce texte est un excellent point de départ pour une réflexion nécessaire. Il pose un diagnostic brutal mais largement pertinent. Son principal mérite est de nous forcer à questionner un système que nous tenions pour acquis. La prochaine étape, que le livre aborde sûrement, est de passer du constat à la construction d'un nouveau modèle éducatif concret et désirable.

Pour ne pas couler à pic dans sa vie professionnelle, voici les axes sur lesquels travailler :

  • Apprenez à dialoguer avec les machines
  • Apprenez à apprendre
  • N’apprenez pas à coder
  • Apprenez en continu, toute la vie
  • Refusez l’abdication cognitive
  • Apprenez l’histoire
  • Combattez la démoralisation cognitive
  • Gérer le tsunami du spam intellectuel
  • Réglez votre IA en mode Jiminy Cricket
  • Visez la compétence, pas le diplôme
  • Soyez un braconnier
  • Utilisez les meilleures ressources du monde
  • Travaillez votre réseau
  • Trouvez un mentor ou un modèle

# Conclusion

# Manifeste des nouveaux droits de l’étudiant

On peut prévoir la marginalisation de l’université verticale et son remplacement par une éducation cognitive individualisée, algorithmique et non institutionnelle. Il faut repenser toute l’architecture de ce nouvel écosystème éducatif.

Nous voulons écrire, pour conclure ce livre, un manifeste des nouveaux droits de l’étudiant.

Nous entrons dans l’âge post-universitaire. Celui où l’intelligence n’a plus besoin d’amphithéâtre, ni de parchemin, ni de doyen en toge. La Sorbonne aura vécu huit siècles, transmettant le savoir pour l’éducation des élites par un système général d’apprentissage. Le cours face à l’élève. Le professeur en autorité. Des siècles de tradition qui s’achèvent. Nous y avons vécu de merveilleux moments, comme étudiants ou comme professeurs. Mais cela va se transformer.

À l’avenir, les jeunes n’apprendront plus pour décrocher un diplôme, mais pour dialoguer plus en profondeur avec des machines qui pensent. Ils vont devenir des navigateurs, ne remplaçant pas toute intervention humaine, mais occupant une place immense. Il ne tient qu’à nous qu’elle le fasse en nous libérant, pas en nous enfermant.

Nous savons d’instinct que cette nouvelle ère de l’apprentissage est synonyme d’émancipation et d’aliénation, et en même temps, de libération et de nouvelles servitudes. Elles sont une sorte d’équivalent aux trois lois des robots énoncées en 1942 par l’écrivain de science-fiction Asimov.

Voici les 8 principes fondateurs de cette nouvelle éducation cognitive.

Droit à l’accès à l’éducation IA

L’éducation est le fondement de la liberté. Elle est ce qui nous arrache à la fatalité des origines, ce qui permet de penser par soi-même, de choisir sa vie plutôt que de la subir. C’est pourquoi les sociétés démocratiques ont fait de l’école un bien commun. Au XIXe siècle, elles ont créé l’instruction publique. Au XXe siècle, elles l’ont étendue, rendue obligatoire, gratuite et laïque. Le XXIe siècle a un nouveau défi à relever : garantir à tous l’accès à une éducation cognitive de qualité. Car c’est elle qui structurera désormais les savoirs, organisera les parcours et personnalisera les apprentissages. Elle est la nouvelle infrastructure cognitive du monde.

Cette évolution comporte le risque majeur de créer une fracture instrumentale entre ceux qui ont les moyens de se payer une IA de pointe et les autres. Une fracture sociale, territoriale, mais cognitive. Dans un monde où apprendre efficacement signifie apprendre avec l’IA, ne pas y avoir accès revient à être privé de croissance intellectuelle, de son outil de raisonnement. Cela demande donc un droit nouveau, fondamental à inscrire dans les traités : le droit à l’accès à une éducation par l’intelligence artificielle.

Il faut donc proclamer un droit nouveau, au fondement d’un contrat social repensé : le droit à l’accès à une éducation IA. Ce droit doit être garanti à chacun. Il ne peut dépendre du marché, du niveau de revenu, du bon vouloir des multinationales. Il suppose une volonté politique, une ambition républicaine et une vision civilisationnelle. Ce qui comptait hier pour l’école publique vaut aujourd’hui pour l’IA.

Il ne s’agit pas de garantir un accès à une IA éducative de qualité. Cela implique une gratuité réelle, une accessibilité technique, mais aussi une équité dans les contenus. Car une IA pédagogique ne vaut pas seulement par sa puissance, mais par les valeurs qu’elle transmet. La pluralité qu’elle respecte, la dignité qu’elle reconnaît à chaque apprenant. Une telle IA doit être un service public.

Refuser d’instituer ce droit, c’est organiser l’inégalité. C’est créer une aristocratie cognitive branchée sur des IA premium, pendant que la majorité n’aurait accès qu’à des résidus de savoir, des versions dégradées, à des modèles de seconde main. La fin du projet républicain. Ce serait abandonner les plus fragiles, les plus pauvres, les plus démunis.

Le XXIe siècle a besoin de son école gratuite. Mais cette école ne peut plus se limiter aux murs d’un bâtiment ni aux pages d’un livre. Elle doit s’étendre à l’IA elle-même, dans un prolongement cohérent de la promesse d’égalité.

Droit à l’apprentissage personnalisé

Pendant des siècles, l’éducation a fonctionné comme une usine. On y entrait par cohorte, on avançait par promotion, on franchissait les étapes au même rythme que ses camarades. Les semestres, les trimestres, les années scolaires étaient autant d’unités de mesure calibrées sur le calendrier administratif, non sur le développement réel de l’intelligence. Ce modèle industriel est dépassé. L’IA permet de passer à un modèle post-industriel, individualisé. Il fabriquait des élèves comme on fabrique des pièces : en série.

Ce modèle est obsolète. Dans le monde post-universitaire, on apprend en continu, seul ou en réseau, sur un mode horizontal, asynchrone, fluide. On apprend parce qu’on en a besoin, non parce que c’est au programme. On apprend pour résoudre un problème, monter en compétence, profondément, pour transformer sa vision du monde. Il n’y a plus un temps scolaire, mais des milliers de rythmes d’apprentissage, tous légitimes.

L’IA éducative rend cette révolution possible. Elle permet de rompre définitivement avec la logique de la classe, de la cohorte. Un tuteur cognitif comme ChatGPT, Claude 2 ou Anthropic délivre un message sur mesure. Il s’adresse à tous, indépendamment de leurs besoins. Il peut analyser en temps réel les points forts, les blocages, les rythmes spécifiques de chaque apprenant. Elle peut proposer un parcours unique, taillé sur mesure, avec une temporalité souple, réversible et non linéaire. Elle ne compare pas, elle ne note pas. Elle est toujours disponible, jamais pressée, pour offrir une éducation véritablement individualisée.

Mais cette promesse n’est pas encore un droit. Elle reste souvent une option premium, réservée à ceux qui peuvent se payer une plateforme de pointe, un abonnement. Il faut donc faire de ce droit à la personnalisation une exigence pour tous, et non un privilège pour quelques-uns. Ce droit impose que chaque individu puisse apprendre à son rythme, selon ses priorités, dans la forme qui lui convient. Il suppose que les plateformes éducatives intègrent la plasticité temporelle comme une valeur fondamentale.

Il s’agit de redonner à l’élève le contrôle de l’éducation : une classe, un programme, un calendrier. À sa place, il faut concevoir une architecture pédagogique adaptative. L’élève n’est plus un rouage, mais un explorateur. Il ne suit pas un parcours imposé, il trace sa voie.

Apprendre avec une IA, ce n’est pas suivre un chemin de fer. C’est dessiner sa propre carte. La machine ne fait pas que transmettre un savoir : elle reconnaît cette singularité. Il protège les lenteurs fécondes autant que les accélérations spectaculaires. Il dit que chaque trajectoire intellectuelle est légitime, et que l’école du futur doit être l’école de tous les chemins.

Le droit à la personnalisation, à l’école de la nouvelle force, ce droit est aussi un impératif collectif. Il prépare des intelligences plus autonomes, plus créatives, plus résilientes. Il ne s’agit plus d’un luxe pédagogique. C’est une nécessité civilisationnelle.

Droit au professeur-coach humain augmenté

L’intelligence artificielle sait répondre, expliquer et démontrer. Elle n’oublie rien, ne se fatigue jamais, ajuste ses réponses à l’utilisateur. Pour transmettre une définition, clarifier une notion, corriger une erreur, elle est plus rapide et plus précise que n’importe quel enseignant humain. Elle connaît le savoir mieux que personne.

Pour autant, elle ne peut pas être un pédagogue. Un professeur-coach. Non plus celui qui transmet un savoir encyclopédique puisque cette fonction est désormais prise en charge par l’IA. Mais celui qui accompagne une conscience en construction. Qui détecte les impasses mentales. Qui provoque la surprise. Qui pose la bonne question au bon moment. Il sera moins le savant que le tiers de confiance. Il sera moins le maître que le mentor. Plus l’IA devient un expert, plus le professeur devient un coach.

Les outils deviennent intelligents. Le rapport humain dans les universités d’assistance numérique et de mentorat IA est augmenté. Il s’appuie sur les données fournies par l’IA pour mieux comprendre les blocages, mesurer les progrès et proposer des ajustements. Mais il le fait avec le recul de sa propre humanité. Il apporte ce que l’IA ne peut pas offrir : le doute, l’interprétation, une liberté de jugement. Il sait que l’intelligence humaine est faite d’ambiguïtés, de résistances, de désirs inavoués. Il voit ce que l’élève ne veut pas voir. Il protège l’élève contre sa propre illusion de savoir. Il le déstabilise pour le faire grandir. Il offre une présence, une écoute, une confiance irremplaçables. Il est un miroir d’humanité.

Ce professeur-là n’est pas une version améliorée de l’enseignant d’hier. Il est un acteur de la transformation cognitive contemporaine. Il accompagne les élèves dans leur apprentissage des outils intelligents. Il leur donne le recul nécessaire. Il leur apprend à les utiliser, à les questionner, à ne pas en être dupes. Il développe leur esprit critique face à des machines performantes. Il ne délivre pas un contenu mais il forme un rapport au savoir.

Ce modèle nouveau fait des métiers de l’éducation – coaches, pédagogues, tuteurs, formateurs, ingénieurs pédagogiques, médiateurs d’apprentissage – une avant-garde. On ne verra plus seulement des enseignants, mais des accompagnateurs de lucidité. Ils ne guideront non seulement vers le savoir, mais vers soi. Ils ne réciteront pas Wikipédia : ils apprendront aux élèves à le faire et à ne pas le faire. À s’en méfier autant qu’à s’en nourrir, à se forger une intelligence personnelle dans un monde saturé d’intelligence distribuée.

Le droit au professeur-coach humain augmenté est donc le droit de ne pas être seul face à la machine. Le droit d’avoir un miroir humain. Un témoin. Un guide. Il ne s’agit pas de nier la puissance des IA éducatives, mais de les inscrire dans une relation humaine authentique. Car même à l’âge de l’intelligence artificielle, on n’apprend jamais vraiment sans quelqu’un qui nous regarde, nous confronte et nous élève.

Droit à la portabilité cognitive

Ce que ma main sait de moi m’appartient. Je dois pouvoir l’emporter, le migrer, le reprendre. Si je change de modèle, je dois emporter avec moi mes lacunes, mes fulgurances, mes essais et mes erreurs. Pas de prison pédagogique. Pas de silo cognitif. Le savoir algorithmique sur moi-même m’appartient. Ce n’est pas une donnée, c’est une partie de mon identité.

La portabilité cognitive. Le design de l’IA impose une réforme radicale de notre rapport au savoir et à l’identité. La transition d’un modèle à l’autre, l’ensemble des interactions, préférences, connaissances, habitudes et historiques cognitifs qu’un individu a accumulés en interagissant avec un modèle doit pouvoir être transféré. Lorsque nous changeons de téléphone, nous devons pouvoir emmener notre « moi numérique » d’une IA à une autre, sans perdre notre mémoire artificielle, notre pédagogie personnalisée, notre relation d’apprentissage. Ce droit n’est pas technique, c’est un choix de civilisation.

Il s’agit de garantir la continuité de l’expérience éducative. Lorsque nous changeons de tuteur, de coach ou de prof, ils apprennent à nous connaître. Ils mémorisent nos fautes, nos progrès, nos angles morts et notre style. À long terme, ces IA ne seront plus de simples interfaces : elles seront nos extensions cognitives, des extensions cognitives qui savent comment nous aimons apprendre, penser et raisonner.

Dès lors, chaque étudiant formé par une IA construit un lien unique avec « son » modèle, bien au-delà d’une simple conversation. C’est une relation intellectuelle cumulative et un capital cognitif individuel. Le savoir pédagogique acquis par l’IA sur nous-mêmes est aussi précieux que le savoir qu’il nous transmet. Détruire ce savoir, c’est appauvrir l’étudiant, le priver de son histoire.

Aujourd’hui, si vous utilisez quotidiennement un modèle comme ChatGPT ou Claude, cette IA apprend rapidement votre style, vos lacunes, vos préférences, ce tic cognitif qui vous est propre. Or, cette connaissance est captive de l’IA. Si vous passez de ChatGPT à Anthropic, vous devrez tout réapprendre. Si un modèle souverain européen apparaît ? Rien n’est transférable. Vous repartez de zéro, comme si vous changiez d’université sans pouvoir emporter vos notes, vos copies corrigées, votre progression.

Or, plus la relation à l’IA sera longue, plus l’IA vous connaîtra, plus vous dialoguerez avec un assistant, plus vous serez captif, plus il vous connaîtra… et plus les autres vous sembleront hostiles ou incompétents. Le passage à un autre modèle ferait perdre trop de temps, signifierait trop d’énergie à réinvestir. Il constitue une barrière puissante au changement d’offre. L’intimité cognitive devient un argument de rétention. La fin de la concurrence, de la liberté pédagogique ainsi que du libre arbitre algorithmique.

Dans un monde où les IA remplacent les universités, la portabilité cognitive est le nouveau droit à la mobilité. Elle permet à chaque individu de ne pas être piégé dans une pédagogie ou un écosystème. On ne peut pas construire un système éducatif post-universitaire si l’on impose des silos opaques.

Nous avons besoin d’une législation qui impose aux fournisseurs d’IA de permettre l’export et l’import de profils pédagogiques, de dialogues enrichis, des structures de connaissances construites dans leur écosystème. Le droit à la portabilité cognitive est le droit à la continuité de soi. C’est le droit de ne pas être enfermé dans les murs d’une école.

Dans le monde de l’IA, celui qui contrôle votre apprentissage contrôle votre esprit. Qui doit porter cette exigence ? L’Europe a une carte à jouer : elle a raté la bataille des modèles, mais elle peut devenir le garant juridique du nomadisme cognitif. Les universités ou elles-mêmes peuvent le porter ? Les droits d’auteur doivent être repensés, les brevets doivent inscrire ce principe dans leurs feuilles de route : le moi numérique ne doit pas être aliénable.

Droit à la neutralité

Le risque est ancien, la technologie le renouvelle : toute éducation est une transmission, et toute transmission peut devenir endoctrinement, un danger que l’IA éducative peut amplifier à l’extrême. Ces dernières ne sont pas de simples interfaces techniques : elles modèlent des trajectoires, façonnent des esprits, organisent la hiérarchie des savoirs et décident de ce qui est digne d’être su ou non. Or, ces IA sont conçues dans la Silicon Valley. Leur vision du monde est orientée. Dès lors qu’il simplifie, il sélectionne. Dès lors qu’il hiérarchise, il juge. L’IA éducative devient ainsi un redoutable vecteur idéologique souvent à son insu, parfois à celui de ses concepteurs.

Dans un monde où les tensions géopolitiques, culturelles et morales s’exacerbent, il est plus que jamais essentiel de préserver une zone neutre : celle de l’intelligence elle-même. L’intelligence est plurielle, dialectique, intrinsèquement conflictuelle. Elle grandit dans la controverse, non dans l’unanimisme. C’est pourquoi toute IA éducative digne de ce nom doit faire de la pluralité sa valeur cardinale. Elle doit exposer les points de vue, confronter les vérités possibles, et faire émerger le doute comme moteur premier de l’apprentissage.

Nous devons donc formuler un principe inviolable : le droit à la neutralité idéologique.

Ce droit impose que toute IA éducative respecte la diversité des opinions, des croyances et des philosophies. Elle ne doit en aucun cas privilégier une vision du monde. Il ne s’agit pas d’imposer une neutralité impossible, toute transmission est située, mais d’exiger une transparence épistémologique : que les opinions soient signalées comme telles, que les controverses soient mises en scène (non biseautées), que les sources soient multiples, et que l’élève ne soit jamais privé du contexte qui donne son sens à l’information. Il s’agit de ne pas mettre sur le même plan des savoirs de statuts épistémologiques différents (typiquement, la croyance et le savoir scientifique).

Une charte des IA éducatives pourrait inclure trois points.

La neutralité axiologique incluant l'interdiction d'inférer une morale ou une idéologie implicite comme si elle était universelle et le refus de présenter comme objectifs des jugements de valeur.

Le signalement explicite des opinions : toute affirmation portant sur des sujets controversés doit être accompagnée d’une indication claire de son statut (opinion, hypothèse, consensu provisoire, etc.).

Le droit à la pluralité des sources. Tout contenu enseigné doit pouvoir être mis en perspective avec des interprétations concurrentes, s’il y en a de scientifiquement reconnues.

La protection contre les biais cognitifs et culturels, avec l’obligation de détecter et corriger les biais qui peuvent être présents dans les données d’entraînement des modèles.

Ce cadre est la condition d’une autonomie cognitive réelle. Car il ne suffit pas de donner accès à du savoir : encore faut-il que ce savoir ne soit pas une camisole intellectuelle. L’intelligence humaine ne peut se contenter de répéter, elle doit interroger. Une IA éducative doit donc être conçue pour stimuler la pensée critique, non pour la formater. Elle doit montrer les possibles, non les refermer. Le doute, le questionnement, la mise en tension doivent être codés dans ses algorithmes comme modules natifs. Il n’y aura pas d’intelligence artificielle véritablement pédagogique sans une culture intégrée du conflit d’idées.

Ce droit à la diversité est au cœur du débat sur l’IA. Il est le droit au pluralisme des écosystèmes éducatifs. Le danger d’une intelligence unique est aussi grand que celui d’une pensée unique. Si demain un seul modèle d’IA, centralisé, homogène, standardisé, devient le tuteur cognitif de tous les élèves, ce sera brillant pour les élèves, mais ce sera terrifiant pour la pensée. Une IA qui sait tout, qui a réponse à tout, est implacable, impériale, politique. Une IA éducative unique, même brillante, finirait par imposer ses logiques implicites et ses valeurs sous-jacentes. Ce serait l’équivalent cognitif d’une monoculture : efficace à court terme, vulnérable à long terme, incapable de s’adapter à la nouveauté.

Or, l’histoire des sciences et des idées est celle de la diversité. Elle est née du contact de styles différents, de méthodes opposées, de contradictions fécondes. L’histoire de la connaissance est celle d’une pluralité de voix, de traditions, de disciplines. L’éducation ne peut donc être pensée que comme la mise en tension entre un élève et une IA « toute-puissante ». Elle doit être le fruit d’un écosystème d’IA diversifié, avec des IA spécialisées, chacune porteuse d’un regard, d’une compétence et donc d’une logique propre.

Plutôt qu’un modèle généraliste omniscient, c’est un écosystème d’IA qu’il faut construire. Chacun de ces agents peut se connecter avec les autres, croiser ses données, partager ses modèles, mais sans les fusionner. Cette coopération permet de préserver une diversité pédagogique, de faire émerger des tensions, des débats, des zones de flou, c’est-à-dire tout ce qui fait la richesse de l’intelligence humaine.

Ce pluralisme algorithmique n’est pas un luxe, c’est une nécessité. Il constitue une protection contre l’uniformisation de la pensée, contre les bulles de filtres et de simplification auxquelles tout modèle unique est fatalement exposé. Il garantit que l’élève ne soit pas enfermé dans une vision du monde. Il réintroduit une forme de complexité, de confrontation, d’altérité, là où les modèles uniques ne voient que des signaux à optimiser.

Un seul professeur IA, aussi performant soit-il, ne pourra jamais remplacer l’expérience de la pluralité intellectuelle. Une intelligence n’est jamais seule. Elle est toujours en relation, en dialogue, en tension avec d’autres. C’est cette architecture distribuée qu’il faut concevoir pour l’éducation, un écosystème d’IA intelligentes, où chaque agent joue sa propre partition, et où l’élève devient le chef d’orchestre.

Le droit au pluralisme des écosystèmes éducatifs, c’est donc le droit de ne pas être formaté. Le droit de pouvoir changer d’interlocuteur, de style et de méthode. Le droit de ne pas être enfermé dans une seule voie. C’est le droit d’être confronté à une diversité d’intelligences, en interagissant entre elles, tout en créant la complexité du réel et en ouvrant les chemins de la véritable autonomie intellectuelle.

Droit à la confidentialité de l'apprentissage

Ce que nous apprenons, la manière dont nous progressons, les erreurs que nous faisons, les hésitations que nous traversons, tout cela constitue une part intime de notre trajectoire personnelle. Apprendre, c’est s’exposer. C’est révéler ses fragilités, ses incompréhensions, ses doutes. Cela demande du courage. Nous ne sommes pas qu’un cerveau, nous avons une mémoire, des émotions. En cela, les données d’apprentissage sont infiniment révélatrices : elles dessinent un portrait de l’esprit en formation, aussi sensible que le dossier médical l’est pour le corps.

Or, dans le monde de l’éducation, chaque clic, chaque réponse, chaque temps de latence, chaque relecture devient une donnée. Ces micro-signaux forment un gisement d’informations d’une valeur inestimable pour les entreprises de la tech et un danger immense pour la liberté individuelle. Car ces données permettraient de prédire, de classer, de cibler, de nous orienter vers tel métier jugé adapté, telle formation jugée opportune, telle filière jugée désirable selon leur supposée « efficacité cognitive ». Le risque est de faire de l’acte d’apprendre un acte de traçage.

Il est donc impératif de reconnaître un droit fondamental : le droit à la confidentialité de l’apprentissage.

La promesse de l’éducation est d’être un espace de sécurité psychique, où l’on peut se tromper sans crainte, explorer sans être surveillé, se chercher sans être jugé. Si la transformation de l’école en objet de mesure et de quantification à des fins de contrôle signe la fin du tableau et la performance de l’individu, l’étudiant risque de devenir un produit de normalisation algorithmique, et non d’émancipation intellectuelle.

La confidentialité de l’apprentissage est donc plus qu’un principe juridique : c’est une condition pédagogique. C’est ce qui permet à l’élève de se risquer, de douter, de recommencer, bref, de faire de l’erreur un outil de construction de connaissance. C’est ce qui suppose que l’apprentissage reste un espace de liberté, et non d’instrumentalisation.

Face à l’industrialisation des données éducatives, il faut une régulation claire et ambitieuse. Elle doit garantir que l’élève qui pose une question à une IA, livre une confidence, ne se confesse pas. Que ses faiblesses ne soient pas des aveux de faillite personnelle, mais une part de lui-même. Sans ce droit, l’intimité cognitive deviendra une marchandise. Avec lui, elle restera une promesse d’avenir.

Droit à l'oubli pédagogique

Toute éducation digne de ce nom repose sur une promesse implicite : celle que tout peut changer. Que les erreurs d’hier ne sont pas les fautes de demain. Grandir, c’est se déjuger. Toute trajectoire intellectuelle suppose des ruptures, des faux départs, des reprises à zéro. Ce que l’on fut n’est jamais ce que l’on sera. L’intelligence humaine a besoin d’oubli pour progresser. Elle se construit autant par effacement que par accumulation.

À l’inverse, le capitalisme cognitif ne croit pas à la seconde vie. Une fois votre profil défini, il vous suit. Une fois vos erreurs analysées, elles deviennent des données à exploiter. L’intelligence artificielle éducative, si elle n’est pas régulée, risque de transformer cette mémoire en abandon de nos possibles. L’élève devient alors défini par un ensemble de biais statistiques qui l’enferment dans un déterminisme dont il peine à s’extraire. Il n’y a plus de droit à l’erreur.

Or, le cerveau n’est pas un algorithme d’optimisation. Il est traversé de contradictions, d’oublis fertiles ainsi que de rebonds imprévisibles. Il se construit contre ses propres vestiges. L’oubli est à la pédagogie ce que le silence est à la musique : il lui donne du souffle. Le droit à l’oubli pédagogique garantit que chaque parcours peut être une nouvelle naissance. Il est une fidélité au parcours et fidélité à l’élève. Elle suppose que l’on est ce que l’on a fait, que la trace vaut vérité. Elle nie la possibilité de la mue.

C’est pourquoi il faut reconnaître un droit fondamental : le droit à l’oubli pédagogique. Le droit, pour tout apprenant, s’il le souhaite, d’effacer son historique, de repartir de zéro, de ne pas être assigné à ses échecs passés. Ce droit n’est pas cosmétique mais existentiel. Il protège la capacité à renaître intellectuellement, à reconfigurer ses intérêts, à reformuler ses propres objectifs. Il garantit que le regard porté par l’IA reste ouvert, non programmé par le passé.

Sinon le parcours d’apprentissage serait comme le livret des ouvriers du XIXe siècle, la trace systématique d’un parcours.

Dans un monde où les modèles prédictifs sont partout, ce droit à la renaissance cognitive devient un impératif. Il nous rappelle que l’être humain ne peut se résumer à une courbe d’apprentissage. Qu’il y a des déclics, des accidents, des fulgurances qui échappent aux logiques d’historicisation.

L’intelligence n’est pas une trajectoire linéaire, c’est une suite de sauts, de bifurcations et de recommencements. C’est pourquoi l’oubli n’est pas un bug. C’est une fonction.

L’étudiant doit pouvoir à tout moment remettre les compteurs à zéro, effacer l’ardoise pour repartir de zéro. Chaque interaction doit pouvoir être un nouveau départ. Non pour nier les efforts passés, mais pour ne pas les transformer en chaînes. Une mémoire pédagogique sans droit à l’oubli est une surveillance permanente. Une éducation sans droit à la mue est une assignation. Le progrès, au contraire, commence par un regard neuf.

Droit à la neuro-augmentation

Un dernier droit va s’ajouter à la liste. L’humain non-augmenté devient obsolète. Trop biologique pour suivre la cadence d’un monde algorithmique. Face à l’irruption des IA, l’égalité des droits ne suffira plus. Il faudra une égalité des branchements.

Cela doit se traduire par un droit fondamental, le droit à l’hybridation : le droit à la neuro-augmentation, quand elle sera possible. Ce droit garantit à tout individu, dès l’enfance, un accès équitable aux technologies d’extension cognitive : interfaces neuronales, prothèses mémorielles, compagnons IA intégrés, assistants implantables. Il s’agit d’éviter la relégation des cerveaux.

Il ne doit pas y avoir d’humanité à deux vitesses cognitives.

Alexander Wang dit attendre que ses enfants puissent être améliorés pour être conçus. Il pourrait devenir un modèle demain. C’est déjà le cas des plateformes comme qui prépare à la sélection à l’entrée à l’université. Les étudiants chinois les plus fortunés s’abonnent à des IA, les premiers programmes d’hybridation cognitive apparaissent. Les écoles privées les plus avancées testent déjà des dispositifs de co-apprentissage cerveau-IA. Le branchement n’est pas encore prêt, mais les efforts pour y parvenir sont réels. Ils pourraient aboutir plus vite que nous le pensons.

Le refus de connecter son enfant sera alors vu comme une négligence éducative, presque une maltraitance cognitive.

Si cette stratégie se généralise, et tout indique qu’elle le fera, l’inégalité ne sera plus une affaire de capital culturel, mais de bande passante cérébrale. Le mérite ne sera plus la récompense d’un effort, mais le produit d’un branchement. Dans ce contexte, ne pas garantir l’accès à la neuro-augmentation, c’est créer une aristocratie câblée. C’est accepter qu’une oligarchie technologique s’arroge le monopole du muscle et de la décision.

Nous refusons cette dérive. Le cerveau est un bien commun. Sa mise à niveau ne doit pas être une rente. Elle doit devenir un service public cognitif, aussi banal que l’eau courante ou l’électricité au siècle dernier. C’est pourquoi nous pensons que ces techniques doivent être remboursées par la Sécurité sociale. Le droit à la neuro-augmentation est un droit de survie intellectuelle. Il est la condition de l’égalité cognitive réelle, dans un monde où l’intelligence biologique est trop lente pour être libre.

---

Résumé du texte

Ce texte est un "Manifeste des nouveaux droits de l’étudiant" qui anticipe la transition d'une université traditionnelle vers une éducation cognitive, individualisée et médiatisée par l'intelligence artificielle. Face à cette transformation, l'auteur propose huit principes fondateurs pour encadrer ce nouvel écosystème éducatif de manière éthique et humaniste.

1. Droit à l’accès à l’éducation IA : Postule que l'accès à une IA éducative de qualité doit être un service public universel et gratuit pour éviter une fracture cognitive entre les riches et les pauvres. 2. Droit à l’apprentissage personnalisé : Revendique la fin du modèle industriel de l'éducation (classe, cohorte) au profit de parcours sur mesure, adaptés au rythme et aux besoins de chaque apprenant, rendus possibles par l'IA. 3. Droit au professeur-coach humain augmenté : Redéfinit le rôle de l'enseignant, qui passe de transmetteur de savoir à un "coach" ou un mentor. Il accompagne l'élève, développe son esprit critique et offre une dimension humaine (doute, empathie) que l'IA ne peut fournir. 4. Droit à la portabilité cognitive : Exige que les données et l'historique d'apprentissage d'un individu ("moi numérique") puissent être transférés d'une plateforme IA à une autre, pour garantir la liberté de choix et éviter d'être "captif" d'un écosystème. 5. Droit à la neutralité : Impose aux IA éducatives de respecter la pluralité des opinions, d'être transparentes sur leurs sources et leurs biais, et de stimuler le débat plutôt que d'imposer une vision unique du monde, en promouvant un écosystème d'IA diversifié. 6. Droit à la confidentialité de l’apprentissage : Affirme que l'apprentissage est un espace intime et sécurisé. Les données de l'apprenant (erreurs, doutes, hésitations) doivent être protégées pour éviter la surveillance, la marchandisation et la normalisation algorithmique. 7. Droit à l’oubli pédagogique : Garantit à l'étudiant la possibilité d'effacer son historique pour ne pas être enfermé dans ses erreurs passées. Ce droit à la "renaissance cognitive" est essentiel au progrès et à la liberté de se réinventer. 8. Droit à la neuro-augmentation : Anticipe un futur où les extensions cognitives (implants, interfaces neuronales) seront possibles et revendique un accès équitable pour tous afin d'éviter une "aristocratie câblée" et une humanité à deux vitesses.

---

Mon avis sur le texte

Le manifeste est construit de manière très intelligente, partant des droits les plus fondamentaux et immédiats pour aller vers les plus prospectifs et spéculatifs.

* Une fondation solide : Commencer par le droit à l'accès et le droit à la personnalisation ancre le propos dans des problématiques actuelles et universelles d'égalité des chances et d'efficacité pédagogique. C'est une base solide et difficilement contestable. * La place de l'humain : L'introduction rapide du droit au professeur-coach et du droit à la portabilité est cruciale. Elle répond immédiatement aux craintes de déshumanisation et de monopole technologique. L'auteur ne se contente pas de prôner la technologie, il cherche à la maîtriser et à la mettre au service de l'humain, en préservant à la fois le rôle de l'enseignant et la liberté de l'apprenant. * Les garde-fous éthiques : Les droits à la neutralité, à la confidentialité et à l'oubli forment le cœur éthique du manifeste. Ils s'attaquent directement aux dérives les plus dangereuses de l'IA : la manipulation idéologique, la surveillance de masse et le déterminisme algorithmique. C'est la partie la plus critique et la plus nécessaire du texte. Elle montre une grande lucidité sur les dangers du "capitalisme cognitif". * Une conclusion audacieuse : Terminer par le droit à la neuro-augmentation est un coup de génie rhétorique. C'est un sujet qui peut sembler relever de la science-fiction, mais en le plaçant à la fin, l'auteur montre jusqu'où la logique de l'égalité cognitive doit être poussée pour rester cohérente face aux avancées technologiques futures. Cela force le lecteur à envisager les implications à très long terme de cette révolution.

En conclusion, ce texte est bien plus qu'une simple réflexion sur l'IA dans l'éducation. C'est un véritable projet de société, un appel à construire un nouveau contrat social pour l'âge numérique. Sa vision est ambitieuse, ses principes sont clairs et sa structure est remarquablement bien pensée. Si la mise en œuvre de ces droits représente un défi politique et technique colossal, ce manifeste a l'immense mérite de poser un cadre de référence essentiel pour guider les débats et les actions à venir. C'est un travail à la fois visionnaire, humaniste et d'une urgence criante.

# Fil Rouge

* L’Intelligence Artificielle ne remplace pas d’abord les ouvriers, mais les diplômés : les métiers de l’esprit sont désormais en première ligne. * Les tâches de service vont maintenant être massivement automatisables. Droit, médecine, finance, communication : aucun bastion n’est épargné. * La robotisation menacera aussi les tâches manuelles dans toute leur diversité. À terme, personne n’est à l’abri. * Le diplôme, autrefois symbole d’ascension, devient un signal d’obsolète. Il ne protège plus ni l’emploi ni la compétence. Il atteste d’un apprentissage lent d’un savoir désormais instantané. C’est un fardeau dans une époque de téléportation cognitive. * Faire de longues études aujourd’hui, c’est apprendre à monter à cheval l’année de l’invention de la Ford T. * Le nouveau capital, ce n’est plus le savoir, mais la vitesse d’adaptation. * Les employeurs ne cherchent plus des CV, mais des cerveaux compatibles avec l’inhumain : rapides, flexibles et connectés. * Deux options s’offrent à chacun : * Se replier dans les métiers à forte dimension humaine (soin, lien, manuel, spectacle vivant…), sans garantie de longévité. * Se rendre complémentaire des IA, c’est-à-dire les comprendre, les orienter et les corriger. * Les métiers de la responsabilité (justice, armée, stratégie…) subsisteront, non pour « mieux décider », mais pour assumer ce que l’IA décidera à notre place. * Les réseaux humains deviennent un actif stratégique : ce que la machine ne peut pas reproduire (la confiance, le lien et l’influence). * Les inégalités vont croître : ceux qui sauront s’adapter domineront, les autres subiront. * L’enseignement supérieur actuel est trop lent, trop rigide, trop déconnecté pour répondre à ces défis. Il forme pour un monde déjà disparu. * L’enseignement supérieur doit muter. Les grandes caractéristiques des études réinventées : * Un e-learning personnalisé, co-piloté par l’IA. * Un professeur-coach, accompagnateur augmenté. * Un rythme élastique, fondé sur l’agilité cognitive, l’usage plus que l’accumulation. * L’éducation de demain doit apprendre à apprendre : méthode, discipline, résistance à la paresse et à la démoralisation cognitive. * Il n’y a pas de place pour les feignasses dans ce monde de l’IA. Rester en posture active demande un investissement cognitif immense. Ceux qui ne feront pas cet investissement seront sur le bas-côté. * Pour exister en 2040 ? Il faut créer, publier et dialoguer avec les machines. Le monde ne demandera pas de diplômes, mais une capacité permanente à s’adapter à la folle cavalcade technologique.

# Postface

Déscolariser l’intelligence pour sauver la jeunesse

* « L’an dos-mille trop vite pour prendre quatre ans à l’université ». Lit-on sur les réseaux sociaux en 2025\. D’autres prédisent encore : « Les diplômes fondés sur le temps doivent être remplacés par des cursus accélérés fondés sur le débouché. » Telle est l’évidence qui apparaît peu à peu, du point de vue de l’avenir professionnel, la plupart des cursus universitaires est apte à être vécu sur le mode du loisir, qui bien entendu est utile à la fois pour le plaisir, pour le lien, sans avec un éventuel emploi, on peut bien y passer sa vie. Mais pour la plupart des étudiants qui en franchissent le seuil, et pour les contribuables qui en financent le fonctionnement, la mission de professionnalisation prime sans doute sur celle de la protection du savoir pour lui-même (aussi noble et légitime qu’elle soit). Et dans ce cas, il faut tirer la sonnette d’alarme. * Il y a eu un temps où le diplôme était un totem. Un sésame. Une carte d’identité sociale. Il disait au monde ce que nous étions. Il permettait d’attendre de l’autre respect et espérer. Il offrait un avenir et nous évitait la question humiliante entre toutes : à quoi tu sers ? * Le XXIe siècle n’attend plus les bons élèves. Il sélectionne les curieux. Les indisciplinés créatifs. Il ne récompense plus l’accumulation de savoirs figés, mais la capacité à se brancher sur l’intelligence mondiale, à dialoguer avec des machines qui apprennent plus vite que nous, à surfer sur les vagues cognitives qui perpétuellement nous bousculent. Pour y parvenir ? Cultiver son esprit critique, utiliser l’IA comme levier et non comme prothèse, être en mode « actif » pour refuser de se laisser porter par la facilité. * Le mot école vient du grec skholè, qui désigne le loisir studieux, l’occupation de son temps libre. Il a été conçu pour l’étude et la conversation pour être plus éclairés que jamais. Mais le mot a pris, par son détour par l’institution que nous avons tous fréquentée, un sens bien différent. On stigmatise comme « scolaire » ce qui est inutilement laborieux, inspiré par le par cœur, et souvent déconnecté du monde et de soi-même. C’est la formation en « kit », avec le mode d’emploi. Il faut désormais déscolariser l’intelligence. Pour les étudiants, il faut leur rendre ce qu’on leur a confisqué : le droit d’apprendre à leur manière, à leur rythme, dans les arènes du réel. Loin des salles d’examen, mais proches des zones d’impact. * Désormais, l’intelligence n’est plus livresque, argumentative, elle ne se lit plus. Elle ne se démontre pas. Elle se vit, se pratique, un peu comme un sport. C’est la capacité à être en action, en conversation avec les intelligences non humaines, la vitesse d’absorption de concepts nouveaux, l’aptitude à pivoter sans cesse. * Ne faites plus l’autruche. Faites mieux. Apprenez à apprendre, vite, souvent, partout. Apprenez à douter, avec méthode, et c’est bien différent du pessimisme. Apprenez à vous passer d’autorisation et d’institution. * Nous ne prétendons pas détenir une vérité absolue, ni proclamer la fin de l’enseignement supérieur avec jouissance. Attentif à la litanie quotidienne des progrès, nous traquons les signaux faibles, nous lions les points pour révéler le dessin qui se trame là, le chemin d’un nouveau monde se dessine. Nous cherchons à tirer un signal d’alarme et ouvrir un débat. Nous sommes stupéfaits qu’il n’ait pas encore eu lieu. Si nous avons raison, alors il faut agir. Si nous avons tort, alors même déjà trop tard. * Arrêtons donc de faire les autruches. Nous ne balayerons pas et dont il faut dire humblement que les réponses sont incertaines. * Une peste peut-elle vraiment transmettre une culture ? Une mémoire collective ? Une vision du monde ? Utile est-il de former des humains pour devenir humains ? * À l’heure de la divergence des futurs, que peut-on, que doit-on apprendre, cette sorte, cette tension vers le sens survivra-t-elle si une machine peut tout expliquer, tout faire, tout simuler ? * Ce livre est-il dépassé malgré tout, saurons-nous conserver le goût de l’effort qui empêche de tout octroyer ? * L’alignement des intérêts de l’IA et des nôtres aura-t-il lieu ? * Quelle place pour la démocratie dans un monde où il est plus efficace de confier les leviers de la gouvernance à des machines ? * La solidarité algorithmique produit-elle des citoyens éclairés ou seulement des agents performants ? * Ce sont les questions les plus importantes des prochaines décennies. * Ce livre est né d’une conviction : la machine sera bientôt capable de faire tout ce que nous faisons, donc la question n’est pas de faire « mieux » qu’elle, mais de faire ce qui lui échappe, ce qui toujours lui échappera à ce sésame. Le futur sera une reconfiguration radicale de nos repères : formations, statuts, carrières, métiers, légitimité, tout va vaciller. Dans ce monde en perpétuelle transformation, il ne suffira plus d’avoir appris entre 20 et 25 ans, il faudra apprendre toujours. * Les études, telles qu’elles existent aujourd’hui, sont les vestiges d’un monde stable. Pensées pour un marché du travail prévisible et hiérarchisé. Elles forment des cohortes entières à des métiers qui disparaissent, avec des méthodes dépassées, dans des cycles trop longs pour un monde qui se renouvelle tous les cinq ans. Le résultat ? Des armées de diplômés inutiles, frustrés, sur-endettés, parfois et, surtout, dépassés. Une perte de temps et de ressources pour le pays. La grande trahison de notre époque est là : on forme encore comme au siècle dernier. * Il faut changer de paradigme. Le diplôme, déjà affaibli comme signal social, va perdre ce qui lui restait de pouvoir magique. Le nouveau monde ne valorisera plus les statuts figés, mais les trajectoires ascendantes. Non pas qu’il ne faille pas étudier, mais ne plus étudier de la même manière. Ce qui est dépassé, ce n’est pas le fait de se cultiver, mais le mode d’emploi avec lequel on le fait. Ce sont ceux qui sauront travailler avec la machine, ou en marge d’elle, qui survivront. * Il ne faut plus « faire des études », il faut être un individu qui apprend. Tout le temps. Partout. À tout âge. L’école ne sera plus un lieu, ni même une période de vie, mais une attitude mentale. C’est cela, la seule voie d’avenir : devenir homo docens, l’humain qui apprend.

---

Résumé du texte

Ce texte est une critique radicale du système d'enseignement supérieur actuel, jugé obsolète et inadapté à l'ère de l'intelligence artificielle. L'auteur soutient que les diplômes traditionnels perdent de leur valeur car l'IA automatise de plus en plus de tâches intellectuelles, rendant les connaissances acquises rapidement dépassées.

Le "nouveau capital" n'est plus le savoir accumulé, mais la vitesse d'adaptation et la capacité à apprendre en continu. Le texte appelle à une "déscolarisation de l'intelligence" et à une mutation de l'éducation vers un modèle plus flexible, personnalisé et axé sur l'action, où l'apprenant devient un "homo docens" (l'humain qui apprend) en interaction constante avec les machines.

L'auteur met en garde contre les inégalités croissantes entre ceux qui sauront s'adapter à ce nouveau paradigme et les autres. Il souligne l'importance des compétences humaines uniques comme la créativité, la pensée critique et l'intelligence émotionnelle, ainsi que la nécessité de cultiver des réseaux humains solides.

Enfin, le texte pose une série de questions fondamentales sur l'avenir de la société, de la démocratie et de la culture à l'ère de l'IA, invitant à un débat urgent sur ces enjeux cruciaux.

---

Mon avis sur le texte

Ce texte est provocateur et stimulant, et il a le mérite de poser des questions essentielles sur l'avenir de l'éducation et du travail. L'auteur utilise un style percutant et des formules chocs pour marquer les esprits, ce qui rend la lecture engageante.

Points forts :

* Pertinence du sujet : L'impact de l'IA sur la société est un enjeu majeur, et la réflexion sur l'éducation est cruciale. Le texte met le doigt sur une anxiété et une incertitude bien réelles. * Critique fondée : La critique du système éducatif traditionnel, souvent rigide et déconnecté des réalités du monde du travail, est en grande partie justifiée. * Vision d'avenir : L'idée de "l'humain qui apprend" et de la nécessité d'une adaptation constante est une perspective intéressante et probablement réaliste de ce que l'avenir nous réserve.

Points à nuancer :

* Ton parfois alarmiste : Le ton est parfois un peu trop catégorique et peut sembler alarmiste. Bien que le changement soit indéniable, l'idée d'une obsolescence totale des diplômes et d'une "folle cavalcade technologique" pourrait être nuancée. * Simplification excessive : Le texte oppose de manière un peu binaire le "monde d'avant" et le "monde de l'IA". La transition sera probablement plus complexe et graduelle. De plus, toutes les disciplines et tous les métiers ne seront pas affectés de la même manière et à la même vitesse. * Manque de solutions concrètes : Bien que le texte pose d'excellentes questions et esquisse une vision, il reste assez abstrait sur les solutions concrètes à mettre en œuvre pour transformer le système éducatif.

En conclusion, ce texte est une lecture très intéressante qui pousse à la réflexion. Il offre une perspective audacieuse et nécessaire sur les défis et les opportunités que l'intelligence artificielle présente pour notre société. Même si l'on peut ne pas être d'accord avec toutes les affirmations de l'auteur, il est indéniable que ce type de débat est indispensable pour préparer l'avenir.

[image1]:

Commentaire

0 commentaire

Chargement des commentaires ...

Valider

Veuillez vous connecter

Le mot de passe est trop court.