Une seule IA ? Illusion ?

Quand on parle d’intelligence artificielle aujourd’hui, on emploie un mot au singulier pour désigner une réalité… résolument plurielle. C’est comme si l’on disait la médecine, sans jamais distinguer le chirurgien du psy, ni l’urgentiste du biologiste. Même mot. Même halo d’autorité. Mais derrière, les logiques sont très différentes.

Des systèmes, pas des cerveaux

L’IA n’est pas une créature unique. Ce n’est pas un cerveau autonome caché quelque part dans une boîte noire. C’est un ensemble de systèmes, d’architectures, de choix techniques – mais aussi de visions du monde.

Certaines IA sont dites symboliques : elles obéissent à des règles, construites par des humains. Elles raisonnent comme des petits profs bien sages. C’est l’ancienne école.
D’autres, plus récentes, apprennent à partir de données. Elles ne comprennent rien, mais elles reconnaissent des motifs. Elles prédisent. Elles produisent du texte, des images, du code. Et parfois, elles se trompent. Spectaculairement. Mais avec une assurance presque arrogante. Comme un étudiant trop sûr de lui, qui n’aurait pas ouvert son cours.

Enjeu éducatif : l’école en question

Mais qu’importe leur niveau de sophistication : aucune IA n’est neutre. Derrière chaque algorithme, il y a des humains. Avec leurs intentions, leurs valeurs, leurs biais. Ce que nous appelons « intelligence » artificielle est souvent un miroir déformant de notre propre société.

Et c’est là que le débat devient politique. Culturel. Pédagogique.

Prenons l’école, justement. On la présente souvent comme le théâtre d’un affrontement entre les élèves – qui utiliseraient l’IA pour tricher – et les enseignants – désemparés, désarmés. Mais ce récit est beaucoup trop simpliste.

Ce que l’IA transforme, ce n’est pas seulement la manière de faire ses devoirs. C’est la nature même du travail intellectuel. Le sens de l’apprentissage. Le rapport au savoir.

Automatiser, ce n’est pas apprendre. Déléguer une réflexion, ce n’est pas la mener. Et si l’on confond la production d’un texte avec la construction d’une pensée… alors c’est l’école dans son ensemble qu’on affaiblit. Et à travers elle, notre démocratie.

Enjeu démocratique : la liberté en question

Car oui, une démocratie repose sur des citoyens capables de douter, de vérifier, de structurer leur raisonnement. Si on habitue une génération à demander toutes ses réponses à une machine, sans en comprendre les ressorts… on fabrique une société vulnérable.

Vulnérable aux fake news. À la manipulation algorithmique. À la passivité.

Et ce n’est pas un danger futuriste. C’est aujourd’hui.

80 % des lycéens utilisent déjà l’IA pour leurs devoirs. Dans le supérieur, on approche les 90 %. Et pourtant, moins d’un enseignant sur cinq s’en sert. Cherchez l’erreur. L’outil est là. Mais ceux qui transmettent ne sont pas formés à en penser l’usage. Pire parfois ils ne veulent tout simplement pas en entendre parler !

Alors oui, il faut former les élèves. Mais aussi les enseignants. Massivement. Dignement. Avec du temps, des moyens, de la reconnaissance.

L’IA, une affaire de société

Et ce n’est pas tout. Il faut ouvrir le débat. Sortir l’IA des laboratoires et des open spaces pour en faire un sujet de société. De citoyenneté.

Pas seulement dans les grandes conférences. Non. Dans les écoles. Les médiathèques. Les associations. Les syndicats. Là où l’on vit. Là où l’on discute. Là où l’on peut encore dire non, ou poser une question simple : Et si on ne voulait pas que la machine décide à notre place ?

Car la technologie n’est pas un destin. Elle est un choix.

Et pour qu’elle serve le bien commun, il faut des outils transparents, éthiques, ouverts. Pas des algorithmes orientés en douce par des entreprises ou des idéologies. Pas des IA conçues pour vendre des rêves… ou des dogmes.

Car oui, une IA développée par une église finira par prêcher. Une IA conçue pour faire du profit finira par vendre. Et c’est pour cela que nous avons besoin d’IA conçues comme des biens communs. Souveraines. Compréhensibles. Interrogeables.

L’esprit critique commence à la maison

Mais cette vigilance ne doit pas s’arrêter aux portes de l’école ou des institutions. Elle commence aussi à la maison.

Le rôle des familles est essentiel. Pas pour tout comprendre. Pas pour devenir expert. Mais pour poser les bonnes questions.

Est-ce que cette réponse est vraie ? Qui l’a écrite ? Pourquoi ce mot, et pas un autre ? Est-ce que j’y crois, ou est-ce que j’y réfléchis ?

C’est dans ces petits moments de discussion quotidienne que se forge un esprit critique.

C’est pour cela que nous avons conçu Evalir.net. Une plateforme pensée pour que parents, enfants, enseignants puissent, ensemble, expérimenter l’IA. Comprendre ce qu’elle fait. Et ce qu’elle ne fait pas.

Evalir.net, ce n’est pas un cours en ligne. C’est un outil d’émancipation.

On y découvre comment une IA apprend. Pourquoi elle hallucine. Comment formuler une question. Comment repérer une fake news. Comment faire de l’IA un compagnon d’apprentissage… sans en faire un maître.

Notre conviction est simple : l’esprit critique ne se programme pas. Il s’exerce.

Et il s’exerce mieux à plusieurs. Dans le dialogue. Dans le doute. Dans le débat.

C’est là que réside l’enjeu de ce siècle technologique : non pas construire des machines toujours plus brillantes, mais des humains toujours plus lucides.

Oui, l’IA transforme notre monde. Mais à nous de décider si elle nous aliène… ou si elle nous grandit.

Marianne Dabbadie