Adaptive learning, IA et AI Act : la question que personne n’a posée à Learning Technologies
La semaine dernière, en me baladant dans les allées de Learning Technologies, j’ai eu une impression de déjà-vu permanent : l’adaptive learning était partout.
Stand après stand, le même refrain revenait en boucle : « Des parcours qui s’adaptent automatiquement ! Des contenus personnalisés en temps réel ! Fini le one-size-fits-all ! » Bref, la promesse qu’on nous fait miroiter depuis des années devenait enfin réalité grâce à l’IA.
Et je dois dire, c’est impressionnant. Vraiment. Ce qui relevait de l’idéal pédagogique il y a quelques années devient techniquement accessible, à grande échelle, pour de vrai.
Sauf qu’en quittant le salon, une question m’a rattrapé. Une question qui, bizarrement, n’était presque jamais abordée sur les stands :
Qu’est-ce que ça implique, concrètement, quand une formation commence à prendre des décisions à la place des humains ?
Parce que derrière le terme sexy d’« adaptive learning », il n’y a rien de magique. Un système adaptatif, ça fonctionne comme ça : il collecte des données, applique des règles, puis décide de la suite du parcours.
Il décide qui avance, qui doit revoir un contenu, qui est considéré comme « en difficulté », quel chemin est le plus pertinent pour untel ou unetelle.
Autrement dit : il évalue. Il classe. Il oriente.
Première question (rarement posée) : qui définit ces fameuses règles d’adaptation ?
Dans beaucoup de projets que j’ai vus, la réponse reste floue. Les règles sont « dans l’outil », « proposées par l’éditeur », ou « paramétrées par défaut ». La décision existe bel et bien, mais le décideur, lui, devient invisible.
Et c’est précisément là que l’AI Act débarque dans le décor.
Contrairement à ce qu’on pourrait croire, l’AI Act ne s’intéresse pas à la technologie en elle-même. Ce qu’il encadre, ce sont les usages de l’IA quand ils ont un impact sur les personnes. Et devinez quoi ? L’évaluation automatique, l’orientation personnalisée et la décision de parcours rentrent pile dans cette catégorie.
La vraie question n’est donc pas : “A-t-on le droit d’utiliser de l’adaptive learning ?” Mais plutôt : “Est-on prêt à assumer les décisions prises par un système adaptatif ?”
Lors d’un échange sur le salon, un responsable formation me disait : « L’outil adapte le parcours automatiquement, ça aide énormément l’apprennent en fait »
OK, super intention. Mais la question qui suit est rarement posée : sur quels critères exactement ? Peut-on expliquer pourquoi Marie suit un chemin différent de celui de Thomas ? Peut-on contester une décision automatisée ? Peut-on la corriger si elle se trompe ?
L’AI Act nous oblige (enfin !) à nous poser ces questions. Il impose de la transparence, de la supervision humaine, de la responsabilité. En gros, il devient compliqué de déployer des dispositifs adaptatifs comme des boîtes noires pédagogiques où personne ne sait vraiment ce qui se passe.
Et attention : le vrai risque n’est pas juridique. Il est pédagogique et humain.
Un adaptive learning mal gouverné peut enfermer des apprenants dans des parcours appauvris, confirmer leurs difficultés au lieu de les aider à les dépasser, créer des inégalités invisibles. Non pas par malveillance, mais simplement par automatisation mal pensée.
La visite de Learning Technologies montre une chose très clairement : la technologie est prête.
La question, c’est de savoir si notre gouvernance pédagogique l’est aussi.
L’adaptive learning n’est pas incompatible avec l’AI Act, loin de là. Mais il le devient dès qu’on le déploie sans assumer clairement la responsabilité des décisions qu’il prend.
Former avec de l’IA adaptative, ce n’est plus juste concevoir des parcours personnalisés.
C’est accepter de répondre des décisions prises au nom de l’apprentissage.
