Transformation numérique et atrophie intellectuelle et sentimentale (3)

Dans mon billet du 13 décembre 2023, j’ai analysé quelques-unes des modifications concrètes de notre vie personnelle et du travail qui pourraient résulter de la popularisation de l’intelligence artificielle. Étant donné la place importante qu’occupe le travail dans notre société et dans notre existence individuelle, et l’organisation de notre vie personnelle à l’âge adulte en fonction du travail et façonnée par lui, l’éducation qui prépare à la vie adulte est fortement déterminée par le travail, d’autant plus que l’enseignement est, pour presque tous les enseignants et les professeurs, un boulot comme un autre qui est exposé aux mêmes tendances sociales et économiques que les autres boulots. C’est pourquoi le recours à l’intelligence artificielle, s’il se généralise au travail et dans le reste de la vie adulte, se généralisera aussi en éducation, pour les élèves et les étudiants et pour les enseignants et les professeurs.

 

L’éducation

Pour préparer les enfants, les adolescents et les jeunes à la vie adulte et au monde du travail qui seraient organisés, dirigés ou épaulés par l’intelligence artificielle, il ne serait plus nécessaire de leur apprendre à lire et à écrire correctement, dans leur langue maternelle ou dans une autre langue. L’intelligence artificielle mâchant le travail aux adultes dans leur vie professionnelle et personnelle, pourquoi passer des milliers d’heures à montrer à chaque élève et étudiant à lire et à écrire correctement ? Ils n’auraient qu’à lire les sommaires ou les résumés que l’intelligence artificielle préparerait pour eux et il serait donc superflu de leur montrer comment lire, comprendre et écrire des courriels ou des textes plus longs sans être assistés par l’intelligence artificielle. Au contraire, l’éducation devrait justement avoir pour objectif de montrer comment utiliser l’intelligence artificielle pour résumer des textes et en extraire des informations et ne pas avoir à les lire et à les comprendre ; et de rédiger, corriger et améliorer les textes au lieu de les écrire, de les corriger et de les améliorer soi-même. Du même coup, c’est le désir d’apprendre à bien lire et à bien écrire, et aussi à bien penser, qui s’affaiblit considérablement et qui pourrait disparaître chez beaucoup. Il en résulterait que le recours à l’intelligence artificielle serait encore plus nécessaire dans l’ensemble de la société, et que les êtres humains seraient encore plus dépendants d’elle et seraient encore plus dépassés par elle. Les enseignants et les professeurs, qui seraient issus de ce nouveau système d’éducation, devraient eux-mêmes avoir recours à l’intelligence artificielle pour lire et écrire et pour enseigner à leurs élèves et à leurs étudiants. Sous prétexte de se faire assister par l’intelligence artificielle, ce serait l’intelligence humaine qu’on négligerait de cultiver et qu’on détériorerait même artificiellement ou artificieusement.

Le même phénomène pourrait aussi être observé dans d’autres matières, par exemple les sciences. L’intelligence artificielle étant massivement utilisée pour faire des calculs, pour faire des hypothèses et les vérifier et pour collecter et analyser des données qui deviendraient plus nombreuses, plus complexes et plus importantes en raison justement du recours massif à l’intelligence artificielle, à quoi bon montrer tout ça dans les écoles, en demandant aux élèves et aux étudiants de résoudre de vrais problèmes, de faire de vraies hypothèses, de faire de vraies expériences de laboratoire ? Mieux vaudrait leur montrer comment utiliser l’intelligence artificielle pour faire les calculs à leur place, leur montrer comment résoudre des problèmes, leur proposer des hypothèses et choisir les meilleures, et leur proposer ou simuler des expériences pour les vérifier. Ne serait-ce pas la bonne manière de les préparer à des études supérieures en sciences et à une carrière de professeur, de chercheur ou d’ingénieur, où il s’agirait aussi de faire faire l’essentiel du travail à l’intelligence artificielle, dont on dépendrait de plus en plus étant donné la détérioration des aptitudes scientifiques dont elle serait elle-même la cause ? Encore une fois, ce serait l’intelligence humaine qu’on dégraderait ou dont on entraverait le développement en raison de l’utilisation de l’intelligence artificielle en éducation.

Dans l’éducation primaire et secondaire et dans l’éducation dite supérieure, la démarche intellectuelle serait donc déléguée en grande partie à l’intelligence artificielle qui fournirait les résultats pour lesquels seraient évalués les élèves et les étudiants. Ou encore : la démarche intellectuelle, pour les élèves et les étudiants, consisterait à poser des questions à l’intelligence artificielle et à lui faire réaliser des opérations. On serait alors très loin de l’époque où nous devions faire des examens de français ou de littérature sans dictionnaire et sans grammaire, et des examens de mathématiques, de physique et de chimie sans calculatrice, et où le fait de ne pas se conformer à ces exigences était considéré comme de la tricherie. Dans ce système éducatif qui pourrait voir le jour d’ici quelques décennies ou moins, une nullité pourrait, encore plus facilement qu’aujourd’hui, réussir ses examens et obtenir d’assez bonnes notes et des diplômes universitaires, et occuper des fonctions importantes dans des entreprises, dans des écoles, dans des collèges, dans des universités, dans des instituts de recherche, dans des organismes publics, dans des partis politiques, dans des gouvernements, etc. En fait, cette nullité serait probablement avantagée par rapport à un autre élève ou étudiant doué qui aurait la drôle d’idée et le drôle de désir de développer ses aptitudes intellectuelles au lieu de se faire constamment assister par l’intelligence artificielle, car les travaux et les examens auraient probablement pour fonction d’évaluer la capacité à utiliser efficacement l’intelligence artificielle en lui posant les bonnes questions de la bonne manière, et pourraient être trop longs, trop fréquents et trop complexes pour être réussis et terminés à temps sans l’aide de l’intelligence artificielle, pour tel niveau de scolarité ou de manière générale, en raison des limites humaines pour survoler et produire des grandes quantités de texte, pour faire beaucoup des calculs longs et complexes ou pour analyser un volume important de données.

Il ne s’agirait pas, dans un tel système éducatif, d’acquérir une véritable culture littéraire ou scientifique, ou de développer les aptitudes et les désirs nécessaires pour acquérir cette culture. L’utilisation de l’intelligence artificielle étant devenue la discipline maîtresse qui imprégnerait et subordonnerait les autres disciplines, il s’agirait plutôt de montrer les signes les plus extérieurs, les plus superficiels et les plus convenus d’intelligence, de méthode, de culture, de compétence et de maîtrise d’une discipline académique ou scientifique, lesquels pourraient être évalués par des enseignants et des professeurs qui utiliseraient l’intelligence artificielle (et qui pourraient difficilement faire autrement en raison de l’important volume des évaluations), ou pourraient même, à terme, être évalués par l’intelligence artificielle sans l’intervention des enseignants et des professeurs. Autrement dit, l’intelligence artificielle servirait alors à évaluer l’utilisation de l’intelligence artificielle par les élèves et les étudiants et les résultats obtenus grâce à elle.

Dans les lettres et les sciences humaines et sociales, il s’agirait, en s’aidant de l’intelligence artificielle et en lisant soi-même le moins possible, d’extraire les idées essentielles des textes étudiés, de les remettre dans leur contexte culturel, social et politique, et d’exposer de manière schématique les procédés littéraires et les raisonnements, entre autres. L’éducation qui tolérerait ou qui encouragerait même cette utilisation de l’intelligence artificielle pour optimiser des pratiques scolastiques qui existent déjà serait incompatible avec la culture des individus, qui dans notre civilisation a souvent lieu grâce à une lecture attentive des œuvres littéraires, philosophiques, historiques et sociologiques, sans laquelle ces œuvres ne peuvent pas ébranler et transformer les idées, les opinions, les sentiments, les goûts et les valeurs qui nous imprègnent et que nous avons dans une large part hérités de la société ou des milieux sociaux dans lesquels nous vivons et avec lesquels nous sommes en osmose. Les grands écrivains, les grands philosophes, les grands historiens et les grands sociologues n’auraient pas perdu leur temps à écrire des œuvres si la culture pouvait, sans grandes pertes, être réduite à ce traitement machinal et plus ou moins automatisé des contenus, des raisonnements, des analyses, des récits et des procédés littéraires qui devraient être découpés, résumés, simplifiés, schématisés, classés et communiqués facilement dans des cours et dans des évaluations. Un tel traitement des œuvres, qui existe déjà dans nos collèges et dans nos universités, achèverait de neutraliser les œuvres et de rendre inaccessible la culture si on avait la mauvaise idée d’utiliser l’intelligence artificielle pour le faciliter et l’imposer encore plus aux étudiants et aux professeurs. Et même si l’intelligence artificielle était utilisée de manière plus intelligente dans les milieux académiques, par exemple en accompagnant pas à pas les étudiants et les professeurs dans leur lecture et leur explication des œuvres au lieu de faire des synthèses et de répéter des lieux communs, elle contribuerait à neutraliser les œuvres. L’intelligence artificielle n’étant pas un être sensible et vivant comme nous, ce qui implique que les idées se réduisent pour elle à des mots ou à des associations de mots auxquels sont tout au plus rattachés à des données extraites de perceptions sensibles, qui sont dépourvus de charge affective et qui ne s’inscrivent pas dans une existence comme la nôtre, on voit donc mal comment elle pourrait être apte à proposer d’elle-même des explications des œuvres afin qu’elles produisent des effets auxquels elle est insensible et qui n’existent pour elle que sous la forme de mots auxquels sont rattachés un sens abstrait et des données coupées d’une expérience vécue qui lui est étrangère. Il est vrai que l’intelligence artificielle pourrait être entraînée par de grands interprètes des œuvres (qui seraient de plus en plus difficiles à trouver en raison de la dépendance à l’intelligence artificielle), mais il est douteux que cet entraînement, s’il pouvait donner de bons résultats pour une œuvre donnée ou des œuvres assez semblables par leur fond et leur forme, pourrait continuer à donner des explications sensées pour des œuvres différentes et originales, aussi bien par leur fond que par leur forme, à défaut de quoi les explications fournies par l’intelligence artificielle pourrait faire errer les lecteurs, faire écran aux œuvres et les empêcher de produire les effets qu’elles sont censées produire sur leurs lecteurs. Même dans le cas où ces explications pourraient faire sens et aider les lecteurs à saisir des œuvres qui sont difficiles à comprendre à la manière d’un professeur habile, la facilité d’accès à l’intelligence artificielle, par opposition au professeur, pourrait rendre les lecteurs dépendants de l’intelligence artificielle, dont il n’apprendrait pas à se passer, ce qui entraverait le développement des aptitudes intellectuelles de ces lecteurs et l’adoption d’un rôle actif dans la transformation des idées et des sentiments qui les constituent. Car c’est une chose de se faire prendre constamment par la main par une intelligence artificielle quand on lit, et c’en est une autre de chercher activement à comprendre une œuvre, à voir et à sentir quelles sont ses implications dans notre existence, et à essayer d’agir et de vivre en conséquence, en se trompant, en échouant, en se corrigeant et en réessayant. Selon les circonstances et les utilisations de l’intelligence artificielle, les lecteurs des œuvres deviendraient encore plus souvent des perroquets ou des pédants comme il en existe déjà beaucoup et en a toujours existé beaucoup dans les universités, ou bien ils resteraient indéfiniment dépendants de l’intelligence artificielle, ce qui aurait les mêmes inconvénients que le fait de rester indéfiniment les élèves ou les disciples d’un maître à penser, sans essayer de voler de ses propres ailes et de chercher sa propre voie. Dans tous les cas, ce serait la mort du désir de se cultiver au sens fort du terme et d’être libre intellectuellement et moralement.

On pourrait croire que, pour l’éducation scientifique, l’utilisation de l’intelligence artificielle pose beaucoup moins problème. N’est-il pas vrai que, dans les sciences pures et appliquées et les sciences biologiques, les opinions, les sentiments, les valeurs, les attitudes existentielles et les manières de vivre doivent être mises entre parenthèses et ne pas intervenir pour qu’une approche objective soit possible ? Il en résulterait que le recours à l’intelligence artificielle en science n’entraverait pas ou n’empêcherait pas une transformation de toutes ces choses qui nous constituent, puisque ce ne serait pas l’objet de l’entreprise scientifique, contrairement à la philosophie, à la littérature, aux lettres et aux sciences humaines et sociales, pourvu qu’on ne considère pas ces dernières comme strictement théoriques et qu’on ne fasse pas d’elles une simple affaire d’érudition. Pourtant, la science ne se fait pas de manière désincarnée. Le scientifique est un être humain qui existe dans un contexte social donné et qui est façonné par celui-ci, surtout s’il croit pouvoir se dégager facilement de l’influence de ce milieu dans la pratique de la science. On ne naît pas scientifique, pas plus qu’on ne naît écrivain, philosophe, historien ou sociologue. On le devient. Par conséquent, il se peut que les utilisations les plus courantes de l’intelligence artificielle empêchent les étudiants de devenir des scientifiques, et entravent la formation de dispositions intellectuelles et affectives chez les élèves, lesquelles les prépareraient à se former plus tard comme de véritables scientifiques, quand ils feraient des études supérieures. Ce n’est pas la même chose, d’un côté, d’essayer de résoudre soi-même des problèmes scientifiques sans savoir exactement quelle formule ou méthode utilisée et de quelle manière l’appliquer, de tâtonner dans un laboratoire pour concevoir et réaliser une expérience dont on ne connaît pas d’avance les résultats, ou d’essayer d’exprimer sous une forme mathématique des régularités qui n’apparaissent pas immédiatement à partir d’un jeu de données ; et, de l’autre, de se faire dire par une intelligence artificielle quelles sont les réponses à des problèmes et quels sont les calculs à faire pour les trouver, de se faire proposer par elle un protocole d’expérience ou une simulation d’expérience et ses résultats, ou de faire analyser des données par elle pour en dégager des régularités exprimables sous une forme mathématique. C’est en étudiant de la première manière qu’on développe les dispositions intellectuelles et sentimentales nécessaires pour devenir un scientifique. Et c’est en étudiant de la deuxième manière – où on renforcerait à l’aide de l’intelligence artificielle des tendances qui existent depuis longtemps dans nos établissements d’enseignement – qu’on devient un ouvrier de la science ou un chien savant qui applique machinalement les mêmes formules et les mêmes protocoles scientifiques, qui reprend les lieux communs scientifiques mis de l’avant par les autorités, l’intelligence artificielle et le soi-disant consensus scientifique, et qui cherche à faire carrière en faisant preuve de conformisme. La rigueur intellectuelle, évidemment très importante en science, peut seulement devenir une attitude intellectuelle et morale quand ceux qui essaient de devenir des scientifiques s’engagent personnellement dans la démarche scientifique, au lieu de faire faire l’essentiel du travail par une intelligence artificielle qui leur servirait de béquille et à laquelle ils devraient se fier, faute d’avoir développé les aptitudes intellectuelles et l’attitude morale (la méfiance) pour soumettre les résultats ainsi obtenus à un examen critique rigoureux. Redisons-le plus clairement : la rigueur intellectuelle n’est pas une vertu strictement intellectuelle, mais elle est aussi une vertu morale. Ce n’est pas une petite affaire d’admettre qu’on s’est trompé après des années de recherche et après avoir obtenu d’importantes sommes d’argent en financement public ou privé pour obtenir les résultats escomptés. Et il faut de la force morale pour refuser de se soumettre au soi-disant consensus scientifique (et aussi moral) quand les autorités politiques et bureaucratiques, les journalistes et les experts qu’ils font passer pour les autorités scientifiques suprêmes prétendent dicter ce qu’est ce consensus et censurer ou châtier les scientifiques qui ne sont pas d’accord. Il n’est non plus donné au premier écolier venu d’aimer le débat scientifique, d’y exposer ses hypothèses, ses théories et ses recherches au risque de se les faire démolir, d’examiner sérieusement les hypothèses, les théories et les recherches concurrentes, et d’éprouver de la joie quand il est détrompé par d’autres scientifiques ou quand il a compris grâce à elles des choses qui remettent en doute les résultats de ses propres recherches et même sa manière de concevoir et de pratiquer sa discipline. L’intelligence artificielle, elle, ne sait pas et ne peut pas savoir ce que c’est que d’être un scientifique ou d’essayer d’en devenir un. Elle n’a aucune idée de la rupture intellectuelle et morale qui doit s’opérer vis-à-vis des manières communes de penser et de sentir. Je vois mal comment des scientifiques de renom pourraient, dans le futur, entraîner l’intelligence artificielle pour qu’elle assiste les étudiants dans leurs efforts pour faire cette rupture, d’autant plus que les scientifiques qui maîtrisent leur discipline et ont été transformés intellectuellement et moralement par sa pratique de leur discipline sont déjà rares et pourraient le devenir encore plus en raison du recours massif à l’intelligence artificielle, qui rendrait encore plus difficile de faire cette rupture quand on étudie et qui pourrait faire régresser des scientifiques plus âgés et formés avant.

Des remarques semblables pourraient, avec des ajustements, être faites pour l’enseignement d’autres sciences, d’autres arts et d’autres professions, comme l’ingénierie informatique et la médecine.


Comme je l’ai dit au début de ce billet, les futurs milieux de travail où on aurait massivement recours à l’intelligence artificielle ne seraient pas la seule chose qui déterminerait l’éducation donnée aux enfants, aux adolescents et aux jeunes, afin de répondre aux besoins réels ou présumés du « marché du travail ». Le fait que leur vie personnelle, déjà fortement déterminée par la place importante qu’occupe le travail dans nos sociétés, serait prise en charge par une intelligence artificielle (un assistant personnel) aurait pour effet qu’on aurait encore moins le sentiment qu’il est important de développer la débrouillardise, l’esprit d’initiative, ainsi que le désir de faire des expériences de vie et de se transformer de manière réfléchie et libre grâce à elles. Un jeune chez lequel on aurait développé ces vertus serait tout aussi inadapté à la prise en charge de sa vie personnelle par une intelligence artificielle, qu’un nouveau diplômé chez lequel on aurait développé l’autonomie et le désir de pratiquer sa profession librement et d’y faire des expériences serait inadapté aux milieux de travail où son activité professionnelle serait prise en charge en grande partie par une intelligence artificielle. Le recours à l’intelligence artificielle, pas seulement dans l’enseignement et l’apprentissage à strictement parler, mais aussi dans les choix de cours, dans les orientations scolaires, et dans la planification des études supérieures, de la carrière et de la vie adulte à venir, empêcheraient grandement les enfants, les adolescents et les jeunes de jouer un rôle de plus en plus actif dans leur développement, comme ça devrait être normalement le cas quand ils deviennent plus matures. En effet, l’intelligence artificielle déciderait à leur place, ou leur soumettrait quelques choix, à partir de données académiques et autres collectées au long de leur parcours scolaire et aussi dans leur vie personnelle, et en fonction des besoins réels ou présumés de la société ou des organisations et des groupes de personnes qui y occupent une position de pouvoir. En raison de la prise en charge précoce de leur existence par l’intelligence artificielle qui saurait mieux qu’eux ce qui serait bon pour elles, les générations à venir ne développeraient pas la capacité à faire elles-mêmes des choix de vie et n’auraient peut-être même pas le désir d’en faire. Il ne leur serait plus nécessaire de se demander ce qu’elles désirent faire de leur existence et ce qu’elles désirent devenir, et leurs capacités d’autoanalyse, d’autocritique et d’autocorrection seraient sous-développées, puisque l’intelligence artificielle les en dispenserait ou encadrerait et orienterait ces activités, qui ne seraient que superficiellement « auto ». Pour préparer à une existence normalisée où l’autodétermination n’aurait presque pas de place, il faudrait cultiver dès l’enfance le respect pour l’intelligence artificielle et faire adopter une attitude passive à son égard. Et quelle meilleure manière d’y parvenir que de faire intervenir de plus en plus massivement l’intelligence artificielle dans l’éducation, en la substituant progressivement aux enseignants, aux professeurs et aux parents, pour faire d’elle la nouvelle autorité suprahumaine dont on ne saurait s’émanciper une fois devenu adulte. Les produits de cette éducation seraient presque toujours des nabots d’un point de vue intellectuel et moral, qui accepteraient qu’on règle de l’extérieur leur existence et qui consentiraient à n’être rien de plus que des rouages de la grande machine sociale à la bonne marche de laquelle on veillerait grâce à l’intelligence artificielle.

 

La recherche et la création d’œuvres

Une telle éducation aurait évidemment de graves effets sur la recherche et sur la création d’œuvres. Parce qu’ils se seraient appuyés depuis leur enfance sur l’intelligence artificielle, les étudiants n’auraient guère l’occasion de développer les aptitudes intellectuelles et les désirs nécessaires pour devenir des chercheurs ou des créateurs au sens fort du terme. Certains d’entre eux pourraient malgré tout prétendre être des chercheurs ou des créateurs, en raison des postes occupés dans des universités et dans des instituts de recherche, et des articles et des livres parus sous leurs noms. Mais ce serait évidemment de la frime, puisqu’ils continueraient de faire, en tant que prétendus chercheurs ou créateurs, ce qu’ils ont appris à faire à l’école, c’est-à-dire faire faire une partie importante de la recherche et de l’écriture par l’intelligence artificielle. Jusqu’à ce qu’on se décide à les remplacer complètement par des intelligences artificielles, cela servirait à l’avancement de leur carrière, puisque grâce à l’intelligence artificielle, ils seraient capables de présenter plus souvent des résultats de recherche et de publier des articles et des livres de manière à augmenter les chances qu’ils soient utilisés et cités dans d’autres publications rédigées elles aussi à l’aide de l’intelligence artificielle. Ils seraient même obligés de le faire pour rester dans la course aux publications et être à la fine pointe de l’actualité scientifique ou académique, car les autres « chercheurs » et les autres « créateurs » en feraient autant et les devanceraient s’ils décidaient de se priver de cet instrument. À terme, l’évaluation par les pairs et les comités de rédaction pourraient être remplacés par l’intelligence artificielle, qui serait la seule à pouvoir passer à travers cette masse de publications produites en partie ou en totalité grâce à l’intelligence artificielle, et à analyser celles-ci pour établir le positionnement des chercheurs ou des créateurs et déterminer le financement (ou l’absence de financement) à accorder à chacun.

Le renforcement des tendances académiques nuisibles pour la science et la culture que rendrait possible le recours massif à l’intelligence artificielle priverait la plupart des soi-disant scientifiques et des soi-disant lettrés de la capacité et de l’envie de faire de véritables recherches et d’écrire de véritables œuvres. Quant aux rares personnes qui auraient les aptitudes intellectuelles et les désirs nécessaires pour faire de véritables recherches et écrire de véritables œuvres, à quoi bon le faire si c’est pour voir leurs recherches et leurs créations submergées par le flot continu des publications produites grâce à l’intelligence artificielle et pour l’intelligence artificielle, et si c’est pour avoir un lectorat encore plus petit que maintenant, lequel ne se donnerait peut-être même plus la peine d’essayer de lire et de comprendre sans appeler à la rescousse l’intelligence artificielle pour le dispenser de s’activer les méninges, ce qui neutraliserait la capacité des recherches et des œuvres à produire des effets intellectuels et moraux chez les personnes qui entreraient en contact avec elles ? Ces utilisations de l’intelligence artificielle ne risqueraient-elles de donner son coup de grâce au désir de faire de véritables recherches et de créer de véritables œuvres, et du même coup d’achever la science et la culture au sens fort du terme, dont on entend le râle depuis longtemps, même au sein des institutions d’enseignement et de recherche et des milieux considérés comme cultivés ?


Ces manières d’utiliser l’intelligence artificielle pour éduquer les futures générations de citoyens, pour faire de la recherche et pour produire des publications pourraient évidemment avoir des effets considérables sur le fonctionnement des institutions politiques et sur la nature même des sociétés à prétention démocratique dans lesquelles nous vivons, où on ne manquera pas de promouvoir l’utilisation de l’intelligence artificielle en politique, par les citoyens, par les dirigeants politiques et bureaucratiques et par les grandes corporations qui contrôlent l’intelligence artificielle. C’est ce dont je parlerai dans le prochain billet de cette série.

Suite