La formation numérique, ça n’existe pas !

Quoi ? La formation numérique, ça n’existe pas ? Oui, le titre est provocateur.  C’était le but. Mais, allons plus loin dans l’analyse.

Temps de lecture estimé : 4 minutes

Il ne s’agit pas d’une provocation gratuite, faite pour choquer.  Il s’agit davantage d’une invitation à réfléchir sur ce qu’est la formation aujourd’hui et sa relation au numérique.  Ou plutôt, de la place du numérique dans la formation d’aujourd’hui.

Le numérique : un outil parmi d’autres

Le numérique est un outil.  Le discours ambiant le transforme en une sorte d’entité quasi-magique.  David Bowie, interviewé par Jeremy Paxman, affirmait dès 1999 “qu’Internet est une forme de vie extraterrestre“.

L’interview de David Bowie sur Internet.

C’est la meilleure définition de l’Internet que j’ai jamais entendue. Une forme de vie extraterrestre qui a envahi notre planète. Et qui s’immisce dans le moindre interstice qui échappe à notre vigilance.

Et la formation, dans tout ça ?

La formation n’échappe pas à la règle. Le monstre l’a envahie, remodelée, transmutée jusqu’à la rendre méconnaissable.

Pour le meilleur et pour le pire.

Le meilleur du numérique

  • Une flexibilité inédite jusqu’à aujourd’hui : l’apprenant se connecte quand il veut, apprend aussi longtemps qu’il le souhaite, répète les activités autant de fois que nécessaire, et se déconnecte à volonté.
  • L’ubiquité des apprentissages : vous pouvez apprendre en centre de formation, mais aussi chez vous, dans le train, à la plage, etc.
  • Des modalités d’apprentissage encore impensables il y a seulement dix ans : Microlearning, jeux d’évasion, réalité virtuelle et augmentée, etc.

Le pire du numérique

  • Des parcours formatés comme des produits industriels, proposés à tous les profils sans distinction de besoins ou de niveaux.
  • Des gimmicks qui remplacent la pertinence pédagogique : des animations sans rapport avec le contenu, des images et des pictogrammes rigoureusement insignifiants, etc.
  • Une obsession pathologique de la statistique : où l’aspect vaguement scientifique, voire scientiste du chiffre, masque mal l’indigence intellectuelle et pédagogique.

Le pire du pire du numérique : la formation digitale

Pourquoi la formation digitale ou numérique est le pire du pire ?

Encore une fois, parce que la formation numérique n’existe pas !

Pas plus que l’intelligence artificielle n’existe  comme l’affirme le livre de Luc Julia, expert en la matière (et pas expert au sens d’expert LinkedIn autoproclamés).

L’expression “intelligence artificielle” est un abus de langage. Nous devrions parler d’algorithmes, de méthodes probabilistes. Mais nous préférons “intelligence artificielle” parce qu’elle résonne en nous, qu’elle réactive dans notre inconscient de vieux fantasmes d’hyperpuissance comme les mythes de l’apprenti-sorcier ou de la créature de Frankenstein.

Il en va de même pour “réseaux sociaux” : les réseaux sont des supports numériques. Le social, ce sont les humains qui l’apportent. Ou pas. Comme les algorithmes privilégient le buzz et que rien ne buzze comme l’empoignade, l’expression “réseaux asociaux” est probablement plus proche de la réalité.

La formation numérique, ça n’existe pas plus que l’intelligence artificielle

L’expression “formation numérique” est, elle aussi, un abus de langage.

Qu’est-ce que la formation ?

C’est un parcours d’un ou plusieurs humains en relation entre eux vers un ou plusieurs objectifs pédagogiques, dans un cadre plus ou moins défini. Certains de ces humains ont plus d’expérience, de savoir où d’aptitude que les autres et vont faciliter leur évolution à travers des interactions plus ou moins formelles.

Qu’y a-t-il de numérique là-dedans ?

Strictement rien !

Maintenant, vous allez peut-être utiliser plus ou moins de supports numériques pour atteindre ces objectifs pédagogiques. Mais, votre formation n’est pas numérique pour autant.

Ce n’est pas l’outil informatique qui décide de votre formation. Mais ce sont vos objectifs pédagogiques et les besoins de vos apprenants qui décident de votre utilisation du numérique ou pas.

Au mieux, on pourrait parler de “formation numérisée”. Mais arrêtons de toujours mettre l’accent sur les outils. Pensons aux besoins humains d’abord et faisons nos choix d’outils et de méthodes en fonction de cela.

7 commentaires

  1. Dans l’acception du terme à laquelle je me réfère, il y a compréhension d’un texte à partir du moment où, en combinant les informations données dans le texte avec nos connaissances antérieures, on est capable de déduire des faits qui ne sont pas énoncés explicitement dans le texte.
    Exemple de texte :
    « Le vieil homme était assis dans l’herbe, adossé au tronc d’un pommier en fleurs. Il avait un livre ouvert dans les mains, mais son regard fixait les nuages gris qui s’accumulaient dans le ciel. »
    Exemple de questions :
    Combien de végétaux peut-on identifier dans la scène décrite ?
    A quelle période de l’année se déroule la scène ?
    Le vieil homme est-il en train de lire ?
    C ‘est le genre de questions qu’on poserait à une personne pour vérifier si elle a compris le texte ou si elle l’a lu phonétiquement, sans comprendre ce qu’elle lisait.
    ChatGPT4 répond sans problème à ces questions, mais peut aussi traiter des problèmes beaucoup plus complexes et originaux.

  2. Concernant la première affirmation, « la formation numérique n’existe pas », ma foi, le propos manque de précision mais ne me choque pas. Ce qui existe, ce sont des outils numériques qui permettent de créer des formations plus souples, plus flexibles, en donnant aux gens plus de choix et de liberté en matière de postures et de rythmes d’apprentissage, et peuvent donc rendre les études plus attractives et accessibles à plus de gens, tout au long de leurs vie.
    Concernant l’IA, ce qui est drôle, c’est que tant que les machines exécutaient de simples recettes programmées par des personnes humaines, l’expression « Intelligence Artificielle ne choquait pas grand monde ». Mais depuis que ces machines sont devenues plus futées, capables d’établir spontanément (au cours de leur entraînement) des schémas sémantiques complexes leur permettant de résoudre des problèmes auxquels elles n’ont pas été entrainées (on parle de propriétés émergentes), d’aucunes et d’aucuns s’empressent de dire qu’elles ne comprennent rien et ne pourront jamais rien comprendre, sans pour autant apporter la moindre justification scientifique.
    Mais savoir si les IA sont intelligentes ou pas n’est pas très important, tant le sens du terme est flou. On peut énumérer beaucoup de choses que ChatGPT, par exemple, ne peut pas faire de manière satisfaisante. Mais quand on commence à s’intéresser à ce qu’il peut faire, on découvre une palette de possibilités et de perspectives allant bien au delà de ce dont on pouvait rêver il y a seulement quelques années. En particulier, dans certains champs de compétences, l’engin est capable d’apporter une rétroaction explicative de grande qualité aux personnes apprenantes : identifier une erreur, l’expliquer sans révéler la solution, donner des indices, des explications.

    • Bonjour Olivier, merci pour votre commentaire. Sur le fait que l’intelligence artificielle n’existe pas, je n’ai fait que reprendre les paroles de l’un des plus grands spécialistes mondiaux du domaine. Vous parlez de “sens du terme flou”, je parle d’abus de langage. Je pense au contraire que c’est important de savoir que l’intelligence artificielle n’existe pas. Comme disait Camus “mal nommer les choses, c’est ajouter du malheur au monde”. Et dans le cas de l’intelligence artificielle, cela suscite des représentations, des craintes et des espérances totalement disproportionnées.

      • Je pense que certains spécialistes mondiaux sont en train de manger leurs chapeaux, tout en sauvant les apparences.
        Dans son livre “Intelligence artificielle, intelligence humaine : la double énigme”, Daniel Andler, sommité scientifique qui a passé une grande partie de sa vie a étudier la cognition, dit :
        “… il n’est pas du tout clair que les modèles [de langage basés sur l’apprentissage profond] n’ont aucune forme de compréhension de ce dont ils traitent, ni qu’inversement nous humains ayons toujours une compréhension parfaite de ce dont nous parlons avec une certaine pertinence.”
        J’en parle dans ce billet [ https://www.craft.me/s/ZsyT7GoI5SD4LY ] si vous avez le temps de le lire.
        À lire aussi, ce billet de Stephen Wolfram, sommité mondiale en matière de systèmes complexes [ https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/ ]
        C’est long et c’est surtout la fin qui est intéressante. Je me permets de citer un extrait :
        “But for now it’s exciting to see what ChatGPT has already been able to do. At some level it’s a great example of the fundamental scientific fact that large numbers of simple computational elements can do remarkable and unexpected things. But it also provides perhaps the best impetus we’ve had in two thousand years to understand better just what the fundamental character and principles might be of that central feature of the human condition that is human language and the processes of thinking behind it.”

        • Je ne nie pas l’intérêt des algorithmes et de leur utilité dans la compréhension du langage, encore qu’il y aurait beaucoup à dire sur l’éthique de ces algorithmes (biais raciaux ou de genre, fonctionnement opaque, absence de recours, etc.). On peut s’interroger aussi sur le fait que ces dispositifs se nourrissent de masses considérables de données sans compensation financière ni d’aucune sorte pour les producteurs de ses données. Le fait qu’il ne soit pas du tout clair que ces dispositifs ne disposent pas d’un degré de compréhension me parait surtout être une confusion (une de plus) entre signifié et signifiant. J’avais un merle de Malaisie qui parlait parfaitement comme un humain, je doute fort qu’il comprenait ce qu’il disait. Par contre, oui, je suis d’accord avec le paragraphe final sur l’intérêt de GPT dans la compréhension du langage et de ses processus.

          • La confusion actuelle est surtout entre les notions de compréhension subjective et celle de compréhension objective (vérifiable et évaluable par des tests). Voir à ce sujet le vidéo « La preuve définitive que ChatGPT ne comprend rien » sur la chaîne Youtube Monsieur Phi.
            Le gens (y compris des spécialistes d’IA autres que neurales) qui ont largement diffusé l’idée que ChatGPT est un perroquet ont réussi à créer une sorte de clivage entre les personnes qui ont cru cette affirmation caricaturale et celles qui se sont persuadées que cette machine est capable de pensée consciente.
            Or la réalité est entre ces deux extrêmes. ChatGPT à des capacités de compréhension objective très très très supérieure à celles d’un merle de Malaisie, puisqu’il est capable de résoudre des problèmes n’apparaissant pas dans son corpus d’apprentissage. Pour autant, il n’a pas prétention à avoir une intelligence humaine.
            Je suis enseignant chercheur universitaire spécialiste d’IA symbolique. J’explore les capacités de ChatGPT depuis des mois, notamment dans le domaine de ce qu’on appelle aujourd’hui « codage », c’est à dire la conception de programmes exécutables par des ordinateurs. C’est un domaine particulièrement exigeant, avec des objectifs qui couvrent tout le spectre de la taxonomie de Bloom. Un domaine où toutes les personnes apprenantes qui restent dans une posture d’imitation stagnent très vite. En effet, le but est d’analyser, comprendre, créer des algorithmes, donc des recettes. Or il n’existe pas de recette (ou algorithme) pour faire cela.
            Pourtant, je constate que ChatGPT fait montre, dans ce domaine, de compétences généralement plus élevées que mes élèves de niveau Bac+3. Il répond aux demandes en s’avérant capable de produire des solutions pertinentes, d’expliquer clairement ces solutions, de trouver des erreurs, de produire des indices pour aider les élèves à les trouver, etc., y compris sur des problèmes dont il semble improbables qu’ils appartiennent à son corpus d’apprentissage.
            Et personne ne sais encore vraiment expliquer ces capacités, puisque l’engin, essentiellement analogique (bourré de fonctions continues et dérivables et de nombre flottants) simulé numériquement, est le résultat de recherches empiriques. C’est un peu comme si vous produisiez une race de chien ayant des capacités particulières pour gérer des troupeaux, mais sans être capable d’expliquer cette capacité en analysant l’ADN du toutou.
            Alors c’est dur à admettre, mais ChatGPT a de réelles capacités de compréhension objectives dans certains domaines, bien que cela résulte d’un fonctionnement qui, s’il est inspiré de celui d’un cerveau biologique, reste différent et beaucoup moins complexe. Comparer Chat GPT avec une personne humaine, même en se limitant à ce que l’engin sait faire le mieux, c’est comme comparer un oiseau avec un avion. L’avion est beaucoup moins complexe et fonctionne différemment, mais il vole, et il arrive un moment où on est bien obligé de l’admettre. Et à ce moment là, plutôt que de comparer les aéronef avec les oiseaux, on s’intéresse à ce que peuvent faire les zingues, combien de passagers ou fret ils peuvent transporter, sur quelle distance, etc.
            J’ai constaté que ChatGPT est capable d’apporter à mes étudiants en difficulté face à des problèmes complexes et originaux, des rétroactions explicatives de très haut niveau, aussi bonnes, voire meilleures que celles qui pourraient être produites par une personne enseignante très expérimentée. Ce n’est sans doute pas le cas dans tous les domaines.
            Le premier pas important est d’admettre que l’engin a (en l’état de ses connaissances, qui sont figées), dans son périmètre de compétences, des facultés supérieure à celles de beaucoup de personnes humaines (en l’état de leurs connaissances qui, elles, peuvent évoluer). Tout en étant conscient de tous les risques et limitations – je n’insiste pas sur ce point car tout le monde le fait – la deuxième étape est de déterminer, justement, ce périmètre de compétences et d’évaluer les capacités de cette extraordinaire machine de manière à être en mesure de l’utiliser à bon escient.
            Mais je vous prie de croire que si j’avais lu le texte que je viens d’écrire il y a un an, je ne l’aurais jamais pris au sérieux, et je n’aurais jamais pu imaginer en être l’auteur dans le futur :-). C’est pourquoi je n’essaierai pas de vous convaincre plus avant. Le temps le fera.

            • Je ne nie pas que les algorithmes évoluent et je suis loin d’avoir vos compétences en codage, même si j’ai fait de la programmation il y a très longtemps. Je vous rejoins sur la métaphore de l’oiseau et de l’avion. Je ne doute pas que les algorithmes émulent certaines de nos capacités mentales. De là à parler de “compréhension”, il y a un pas que je ne veux pas franchir. Y a-t-il compréhension sans conscience ? Alors, nous employons le même mot pour décrire deux phénomènes différents. C’est en cela que je récuse le terme d’intelligence artificielle, parce qu’il induit des amalgames et des confusions préjudiciables à la compréhension de ces programmes et à leur façon de fonctionner. Et donc, sur nos relations avec les machines qui simulent la pensée. Et leur impact sur notre futur.

Laisser un commentaire

Abonnez-vous à notre newsletter

Et ne manquez plus jamais aucun article, podcast ou événement ;)

Aller au contenu principal
%d blogueurs aiment cette page :