L’IA comme nouvelle alphabétisation : reprendre la bataille de la lumière

Par Roxan Roumégas

On se trompe de débat. Réduire l’intelligence artificielle à une innovation de plus, c’est passer à côté de l’essentiel. L’enjeu n’est pas l’innovation. L’enjeu, c’est le progrès, ce qui élève réellement le niveau de liberté, d’égalité et de dignité dans une société.
L’IA touche à un nerf vital : le langage. Dans une économie où presque tout passe par l’écrit (procédures, formulaires, normes, plateformes, consignes, reporting), le langage est devenu une frontière. L’IA peut faire sauter cette frontière, ou l’élever plus haut. Il n’y aura pas de neutralité. Il y aura une direction.

 

Rendre le monde lisible à ceux qu’il exclut

La France n’est pas un pays d’illettrés. Mais c’est un pays où une part massive d’adultes est en difficulté avec les compétences de base. L’ANLCI estime à 10,5 % la proportion des 18-64 ans scolarisés en France en forte difficulté avec la littératie et la numératie, dont 4 % en situation d’illettrisme.

Le paradoxe est cruel : on peut être excellent dans un geste professionnel, minutieux, fiable, et pourtant être mis hors-jeu par le mur de l’écrit. Dans de nombreux métiers, ce ne sont pas seulement les compétences techniques qui comptent, c’est la capacité à lire, interpréter et appliquer des consignes parfois complexes, parfois normées.

L’IA n’est pas un robot qui remplace. Elle peut devenir un traducteur universel du monde du travail : lecture automatique et reformulation claire d’une notice, guidage oral pas-à-pas, repérage des points de vigilance, aide à la compréhension des pictogrammes et des règles de sécurité. Ce que l’école a fait historiquement avec l’alphabétisation, l’IA peut le faire avec une nouvelle couche : l’accès pratique au langage. Non pas en diminuant l’exigence, mais en rendant la règle compréhensible. Et quand la règle devient compréhensible, la compétence réelle peut enfin être reconnue.

La compétence ne suffit plus : il faut savoir se lire

Le monde du travail ne souffre pas seulement d’un manque de candidats. Il souffre d’un mauvais appariement, de tensions, de ruptures rapides. France Travail relevait que 57,4 % des projets de recrutement étaient jugés difficiles en 2024.

Derrière ces chiffres, une réalité très concrète : on demande aux individus non seulement de travailler, mais de se décrire, de se justifier, d’entrer dans des grilles, des algorithmes de tri, des formulaires, des entretiens structurés. Ceux qui maîtrisent ces codes (souvent socialement) paraissent meilleurs qu’ils ne le sont. Ceux qui ne les maîtrisent pas (parfois très compétents) restent invisibles.

Une IA bien orientée peut rééquilibrer ce point : aider à formuler un savoir-faire, préparer un entretien, rendre lisibles des offres, expliquer des attendus. C’est moins spectaculaire que les discours sur la disruption, mais c’est exactement là que se crée l’égalité des chances, quand les codes cessent d’être un péage.

Construire une infrastructure de confiance

La formation n’est pas un produit comme un autre. Elle engage du temps de vie, de l’argent public, des reconversions, parfois des trajectoires de réparation. Les réformes récentes ne sont pas parfaites, mais elles répondent à un objectif rationnel : rendre la qualité vérifiable.

Le droit français a posé des critères clairs, dont un point souvent sous-estimé : l’information du public sur les prestations, les délais d’accès et les résultats obtenus. Le référentiel national qualité et la certification Qualiopi s’inscrivent dans ce cadre.

On peut critiquer la bureaucratie. On doit même la critiquer quand elle devient absurde. Mais on ne peut pas oublier l’essentiel : sans standard de confiance, la formation devient un marché de promesses. Et dans un marché de promesses, ce sont toujours les plus fragiles qui perdent.

Le futur n’est donc pas moins de règles ou plus de règles. Le futur, c’est des règles intelligentes, mesurables, orientées vers l’impact réel : insertion, progression, satisfaction, transparence, lisibilité des parcours.

L’école redevient une fabrique d’esprit critique

L’IA change une donnée éducative fondamentale : l’accès au savoir devient plus immédiat, plus personnalisable, plus conversationnel. Cela ne rend pas l’école inutile. Cela change sa mission.

L’État français affirme explicitement le développement de l’esprit critique comme objectif de l’instruction, et l’institution éducative outille cette approche. L’OCDE, de son côté, travaille déjà sur la mesure de la culture médiatique et de l’IA literacy via PISA 2029, signe que la capacité à naviguer dans l’information devient une compétence structurante.

Si le savoir devient disponible, la valeur se déplace vers la capacité à vérifier, hiérarchiser, raisonner, débattre, construire. L’école n’est plus une encyclopédie. Elle redevient une agora : pas une usine à réciter, mais un lieu où l’on apprend à penser juste.

Et cela rejoint un point souvent mal compris : en primaire, l’enseignant ne peut pas donner de travail écrit à faire hors de la classe. Les devoirs à la maison relèvent de l’oral (lecture, leçons, recherches). Ce rappel n’est pas une coquetterie. Il dit une idée profonde de l’égalité : quand le travail scolaire dépend trop du contexte familial, l’école cesse d’être un ascenseur et devient un amplificateur d’écarts.

L’IA peut être un filet, pas un alibi

L’école inclusive progresse, mais elle reste sous tension. La Cour des comptes souligne le chemin parcouru et les difficultés persistantes, et propose des axes d’amélioration : pilotage, suivi, évaluation, qualité de la scolarisation.

L’IA peut jouer un rôle utile : assistance à la lecture, reformulation, supports multimodaux, aide à l’organisation, répétition guidée, adaptation du niveau de langage. Mais à une condition : ne pas transformer l’outil en excuse pour ne pas financer l’humain.

Le bon principe est simple : l’IA pour augmenter l’autonomie quand c’est pertinent. L’humain pour la relation, l’ajustement fin, l’éthique, le soin et la protection.

L’innovation n’est pas le progrès

On confond trop souvent les deux. Les réseaux sociaux ont été une innovation majeure. Leur impact sur la santé mentale des jeunes et sur l’espace public fait l’objet d’alertes au plus haut niveau sanitaire aux États-Unis. Et sur le terrain de la vérité, l’IA peut aussi accélérer la désinformation. L’UNESCO a alerté sur les risques de contenus trompeurs liés à l’Holocauste, précisément parce que les outils génératifs peuvent produire des récits faux à grande échelle.

Ce point est central : la technologie peut éclairer ou obscurcir. Elle ne tend pas naturellement vers le bien. Elle suit des incitations économiques et politiques. Si l’on veut un progrès, il faut une gouvernance.

L’éducation ne peut pas dépendre d’un marché opaque

L’Europe s’est dotée d’un cadre légal avec l’AI Act. Mais la souveraineté éducative ne se résume pas à une loi : elle suppose des choix d’infrastructure. Si l’on confie l’accès au savoir, aux exercices, aux aides, à des outils fermés, non auditables, dépendants de conditions d’usage changeantes, alors on externalise une fonction régalienne : former des citoyens.

L’ambition à viser est plus haute : des communs pédagogiques soutenus par l’intérêt général, des contenus de référence, des outils d’assistance évalués, des règles d’usage explicites, une formation des enseignants et une transparence sur les données. L’UNESCO parle explicitement d’une vision centrée sur l’humain et d’une capacité à planifier des politiques publiques à long terme sur l’IA en éducation.

Ce que nous défendons

Chez Mentivis, nous défendons une ligne simple, exigeante, humaniste.

L’IA doit servir d’abord ceux qui sont empêchés, ceux pour qui le langage, les codes, l’écrit, l’orientation ou la bureaucratie sont des murs.

  • La qualité doit être prouvable : transparence des résultats, lisibilité des parcours, honnêteté sur les débouchés.
  • L’école doit former des esprits critiques, capables d’enquêter, de vérifier, de discuter et de résister à la manipulation.
  • L’inclusion doit rester un projet humain. L’outil est un levier, pas une justification au renoncement.
  • Le progrès demande une gouvernance. Sans cela, l’innovation devient une machine à inégalités.
  • Nous entrons dans un siècle où le savoir peut être partout. La question n’est plus qui a accès à l’information. La question devient : qui a accès à la compréhension, à la méthode, à la vérité vérifiable et à la capacité d’agir ?

C’est cela, la bataille de la lumière. Et c’est là que la formation, quand elle reste fidèle à sa vocation, est inévitablement humaniste : elle n’ajoute pas seulement des compétences, elle ajoute du pouvoir d’être.

 

 


Roxan Roumégas est partenaire et président chez Mentivis. Il a dirigé des écoles techniques et accompagne depuis plus de quinze ans des établissements et des institutions publiques dans la conception de stratégies pédagogiques, l’ingénierie de formation et la transformation éducative. Il intervient à l’interface entre vision académique, contraintes opérationnelles et mise en œuvre concrète sur le terrain.

Ce que fait réellement Mentivis

Mentivis n’est pas un cabinet qui applique des solutions toutes faites.

C’est un opérateur de transformation éducative qui agit sur les mécanismes réels du changement: comportements, incitations, règles implicites.

En une phrase

  • Mentivis transforme des intentions stratégiques en capacités effectives de transformation sur le terrain.
  • Nous n’intervenons pas sur ce que les organisations voudraient changer.
  • Nous intervenons sur ce qu’elles sont réellement capables de changer, durablement.
avatar d’auteur/autrice
Roxan Roumégas (PhD) Global Partner, President Strategy