Catégorie : IA

Albert est le 31e élève

Par blank

Il y a quelque temps, je partageais ici les premiers pas d’Albert, ce « 31ème élève » virtuel qui a rejoint ma classe de 3ème. Si les premières expérimentations tournaient autour de la faisabilité technique et de l’intérêt immédiat des élèves, j’ai souhaité approfondir l’analyse de ce dispositif. Aujourd’hui, ce n’est plus seulement l’outil IA que je regarde, mais la manière dont il transforme la posture de l’élève à travers un concept clé : l’agentivité.

Mais au fait, c’est quoi l’agentivité ?

Avant de plonger dans le vif du sujet, un petit rappel théorique s’impose. L’agentivité (concept théorisé notamment par le psychologue Albert Bandura) est la capacité d’un individu à être l’agent de sa propre vie, à exercer un contrôle sur les événements qui l’affectent, en somme pour l’élève à être acteur dans ses apprentissages.

Face à une IA qui semble tout savoir, le risque est de voir l’agentivité de l’élève s’effondrer : pourquoi réfléchir si la machine le fait pour moi ?

Le dispositif « Albert » propose exactement l’inverse.

Le dispositif : L’IA comme miroir, pas comme béquille

Pour rappel, Albert est un LLM (type ChatGPT) présenté comme un camarade de classe faillible. Il réalise les mêmes exercices que les élèves, et ses productions sont projetées au tableau pour être critiquées, comme un élève peut montrer son travail au tableau.

En analysant cette expérience sous l’angle des 4 piliers de l’agentivité, on comprend mieux pourquoi les élèves reprennent le pouvoir :

  1. L’Intentionnalité (Phase AMONT)
    Dès le début de l’activité, l’intention de l’élève change. Son but n’est plus d’obtenir la « bonne réponse », mais de devenir un juge. Il s’engage dans la tâche pour pouvoir confronter son résultat à celui d’Albert. Cette intentionnalité nouvelle le place d’emblée dans une posture active de recherche de la vérité.
  2. La Pensée Prospective (Phase AMONT)
    L’élève apprend à anticiper les erreurs. « Je parie qu’Albert va encore mal analyser la figure, car il ne sait pas analyser une figure ». En prévoyant les failles potentielles de l’IA, l’élève mobilise ses propres connaissances de manière préventive. Il prépare son argumentation avant même que le résultat d’Albert ne soit affiché.
  3. L’Autoréaction (Phase PENDANT)
    C’est le cœur du réacteur : la phase de confrontation. Quand le travail d’Albert s’affiche au tableau, l’élève n’est plus devant un corrigé type, mais face à un miroir. Il compare, ajuste et régule son propre raisonnement en temps réel, selon ce qu’il observe. C’est une phase de régulation métacognitive :
    • S’il a suivi la même démarche juste qu’Albert, sa confiance grimpe : il conforte sa logique par cette validation croisée.
    • S’il partage la même erreur que l’IA, le choc visuel et l’analyse collective l’obligent à réajuster son tir immédiatement, transformant l’erreur d’Albert en un levier de remédiation pour lui-même.
    • S’il détecte l’erreur d’Albert alors que son propre travail est exact, il consolide définitivement sa maîtrise en se plaçant en position de supériorité cognitive face à la machine.
  4. L’Autoréflexion (Phase AVAL)
    C’est le bilan de l’action. En réussissant à corriger une IA, l’élève valide son propre sentiment de compétence. La conclusion est puissante pour l’estime de soi : « Si je peux identifier des erreurs d’Albert, c’est que je maîtrise le concept mathématique et les attendus. » En créant une trace écrite de cette expérience, on inscrit durablement ce sentiment et le savoir associé dans le parcours de l’élève.

Au-delà de l’agentivité : L’auto-détermination

Ce regain d’agentivité nourrit directement l’auto-détermination des élèves (théorie de Deci & Ryan). En agissant sur Albert, ils satisfont trois besoins fondamentaux :

L’appartenance : La classe fait bloc pour analyser « le travail du copain virtuel ».

L’autonomie : Ils sont critiques face à l’outil.

La compétence : Ils se sentent capables de surpasser la machine.

Conclusion : L’humain reste le maître du jeu

Le dispositif Albert montre que l’IA, loin de remplacer la réflexion, peut devenir un levier incroyable pour la renforcer. Mais cela demande un cadre strict : l’enseignant reste le médiateur exclusif et le garant de l’éthique (aucune donnée élève n’est transmise).

En transformant l’IA en un « pair faillible », nous ne formons pas seulement des élèves bons en maths, nous formons des citoyens capables de discernement critique face aux algorithmes.

Vous avez aimé cet article ? Alors partagez-le avec vos amis en cliquant sur les boutons ci-dessous :

Licence Creative Commons

Modéliser ou Halluciner ?

Par blank

blank

Comment faire comprendre aux élèves le lien entre une modélisation mathématique et la prédiction statistique d’un Large Language Model (LLM) ?

Cette activité propose d’utiliser un exercice de traitement de données pour mettre en lumière les « hallucinations » de l’intelligence artificielle face au bon sens.

Le point de départ : Un nuage de points « presque » alignés.

L’activité commence par une tâche familière : on fournit aux élèves un tableau de données numériques. Ce qu’on ne leur dit pas immédiatement, c’est que ces données représentent la croissance d’un enfant (âge en haut, taille en cm en bas).
La consigne : Représenter ces données graphiquement et deviner les valeurs manquantes pour x=0, x=20 et x=30.

blank

Le scénario : Les points fournis (de 4 à 13 ans) sont quasi-alignés.

Le réflexe de l’élève : Tracer une droite de régression pour extrapoler.

blank
blank

L’erreur de modélisation : Le piège du hors-contexte

blank

Sans le contexte « humain », l’élève se comporte comme une machine : il prolonge la droite.

AU verso de la feuille d’activité se trouve l’origine de données.

À 0 an, il trouve une taille qui lui semble plausible (oui, oui 78cm pour les élèves, ça passe).
Il y a moins de doute à 20 ou 30 ans, la modélisation linéaire l’amène à prédire des tailles absurdes (comme 2m40).

C’est ici que réside le cœur de l’activité : modéliser sans contexte peut conduit à l’absurde.


L’agentivité de l’élève : Apprendre de son propre modèle

Le dispositif s’appuie sur quatre piliers de l’apprentissage :

  • Intentionnalité : L’élève veut prédire.
  • Pensée Prospective : Il utilise son graphique pour prédire.
  • Autoréaction : Il est confronté au verso (la réalité).
  • Autoreflexion : Il comprend pourquoi son modèle a echoué.

Conclusion : L’élève apprend à ne plus faire confiance aveuglément à un « prolongement logique », il doit questionner ses propres manières de modéliser.

Et si on demandait à l’IA ?

Proposition : Faire faire l’exercice à un LLM (ici Gemini) devant les élèves.

Observation : Gemini prédit aussi 2m57,

blank

On passe de la curiosité de l’élève sur ce que va répondre un LLM à la nécessité d’une vigilance accrue.

La réponse d’un LLM est statistiquement correcte au regard de ses données d’entrainement et celui-ci, mais elle n’est pas vérité, car le LLM appose le même modèle que l’élève.
L’erreur vient du manque de contexte.
C’est bien le coeur du problème dans l’utilisation des LLM, s’assurer qu’ils ont le contexte et l’entrainement suffisant pour pouvoir apposer le bon modèle, sans quoi il y aura des hallucinations. Cela permet d’insister sur l’importance du prompt

Corrélation ne vaut pas causalité.

Ce qu’on en retient en classe de maths

Cette activité permet de travailler des points essentiels du programme tout en développant l’esprit critique :

  • La limite de l’extrapolation : Un modèle mathématique n’est valide que dans un intervalle donné (ici, la période de croissance) et sous certaines conditions réelles.
  • Corrélation n’est pas causalité : Ce n’est pas parce que deux variables semblent liées sur un échantillon qu’elles le sont de manière universelle et infinie.
  • La nature des LLM : La réponse d’une IA est statistiquement correcte au regard de ses données d’entraînement, mais elle n’est pas « la vérité ».

En confrontant leurs propres erreurs à celles de la machine, les élèves comprennent que la mathématique est un outil de compréhension du monde, et non une simple manipulation de symboles. Pour ne pas « halluciner » comme une IA, il faut garder les yeux ouverts sur le réel !

Voici l’activité :

Vous avez aimé cet article ? Alors partagez-le avec vos amis en cliquant sur les boutons ci-dessous :

Licence Creative Commons

Le vibe-coding : l’enjeu réel pour l’éducation

Par blank

La connaissance est l’indépendance : Le mirage du « Vibe-Coding » en éducation

L’intelligence artificielle est en train de redéfinir nos usages numériques à une vitesse vertigineuse. Pour beaucoup, c’est une promesse de libération. On voit éclore, notamment dans le monde de l’éducation, une multitude de programmes informatiques conçus par des personnes qui ne connaissent absolument rien à la programmation. C’est ce qu’on appelle désormais le vibe-coding : on ne code pas avec de la logique, on code au « feeling », en discutant avec une machine.

blank

Au premier abord, le côté positif est indéniable : c’est un débridage complet de la créativité. Un enseignant qui a une idée géniale pour sa classe n’est plus freiné par la barrière technique. Il demande, l’IA génère, et l’idée prend vie. C’est, a priori, une excellente chose.

L’émancipation vraiment?

Prenons l’exemple de Julien (il me pardonnera ce petit « torpillage » amical). Il y a dix ans, Julien dépendait de moi. Il me demandait un programme par-ci, un outil par-là. Je répondais selon mon temps, mon envie, ma disponibilité. Aujourd’hui, grâce à l’IA, Julien s’est émancipé. Il est devenu indépendant de l’expert humain. Il teste, il expérimente, il produit. C’est un gain réel pour son autonomie immédiate.

Mais grattons un peu le vernis. En réalité, Julien a simplement changé de maître. Il n’est plus dépendant de moi, il est dépendant de l’IA. Et les entreprises derrière ces modèles l’ont parfaitement compris : rendez la création simple, rendez l’utilisateur accro à cette facilité, puis montez les prix. Nous le voyons déjà avec les hausses tarifaires des abonnements « Pro ». Sans expertise, on ne possède rien, on loue une capacité de faire.


Le code « spaghetti » et la pollution des communs

Le problème devient concret quand le programme, qui fonctionnait « globalement », commence à bugger. Pour un non-expert, corriger un bug via une IA est une épreuve de force. L’IA, n’ayant pas de vision d’ensemble, peut tout planter en voulant réparer une ligne. On se retrouve avec des programmes aux fonctions doublées, aux styles CSS indigestes et non optimisés. C’est propre en apparence (bien indenté), mais c’est un gros fouillis technique à l’intérieur.

Mon inquiétude actuelle : la Forge Éducation, cet outil formidable de partage, risque de devenir un cimetière de programmes jetables. Un lieu où pullulent des milliers d’outils qui se ressemblent, pas toujours fiables, mal codés et, surtout, impossibles à maintenir par la communauté. Partager une application « vibe-codée » sans savoir lire le code, c’est comme distribuer un médicament dont on ne connaîtrait pas la composition exacte : c’est risqué et, avouons-le, un peu malhonnête vis-à-vis des collègues.

Il peut y avoir un vrai risque de crise confiance dans les programmes fournis…

Alors je ne dis pas non plus qu’un programme créé sans IA est forcément bien fait … le risque est ailleurs.


Le risque sécuritaire : au-delà de l’exerciseur

Tant qu’on produit des petits visualiseurs ou des exerciseurs de calcul mental, le risque est limité. Mais que se passera-t-il quand des enseignants « vibe-coderont » des passerelles vers des plateformes institutionnelles ou des outils manipulant des données élèves ?

Mais quand je vois ce genre d’article, je me dis que le risque est réel.

blank

blank

Sans expertise, on ne voit pas les failles de sécurité. On livre un programme poreux, prêt à générer des fuites de données, simplement parce qu’on a fait confiance à une machine qui « avait l’air de savoir ». On ne peut pas transiger avec la sécurité au nom de la simplicité.


La connaissance : la seule boussole

Est-ce qu’il faut arrêter d’utiliser l’IA ? Certainement pas. Je l’utilise moi-même pour les corvées de CSS ou pour dégrossir des structures complexes. Mais il y a une différence majeure : je sais lire ce qu’elle écrit. Je sais valider, corriger, et surtout, refuser une proposition absurde.

Il faut un certain degré d’expertise!! Pour utiliser l’IA de manière responsable dans n’importe quel domaine, il faut posséder un socle de connaissances minimum.

Chez collègues, demandez à une IA de générer une séquence pédagogique : un prof expérimenté verra tout de suite que c’est souvent basique, voire médiocre. En programmation, c’est identique.

Nous avons une responsabilité d’éducateurs. Nous exigeons de l’honnêteté intellectuelle de la part de nos élèves vis-à-vis de l’IA ; nous devons nous appliquer la même rigueur. Faire croire qu’on sait coder parce qu’on a su prompter est un mensonge qui dessert la profession.

Le message est simple :l’IA doit être un levier pour apprendre, pas une béquille pour produire aveuglément. On parle de fact-checking pour l’information, il est temps d’imposer le code-checking pour l’informatique pédagogique.

Utilisez l’IA pour aller plus loin que nos connaissances, mais s’assurer que nos connaissances nous permettent toujours de comprendre où nous allons. Car en fin de compte, la connaissance est la seule véritable indépendance.

Et l’école est le lieu principal où l’on apprend!

Vous avez aimé cet article ? Alors partagez-le avec vos amis en cliquant sur les boutons ci-dessous :

Licence Creative Commons