Les IA devraient à nouveau faire beaucoup parler d’elles en 2024. Selon le MIT de Boston des innovations fiabilisées arrivent : chatbots personnalisables – IA génératives “vidéos” – robots multi-tâches – capacité d’IA à s’auto-entrainer et corriger, etc. Mais aussi des risques tels que les Deep Fakes. Quoi qu’il en soit des centaines de millions d’utilisateurs ont recours déjà aux IA. Leur développement se poursuivra de manière exponentielle. Qu’en sera-il en formation professionnelle ?
Défi n°1 : Quelle “sécurité” de l’IA en formation ?
Cette question en recouvre au moins 6 autres :
- Que deviennent les “données” personnelles des apprenants (ou des formateurs) ?
- Quel est le niveau réel de sécurité de l’IA contre les cyber-menaces ?
- Quid de la Protection des “secrets” d’entreprise ou des formateurs et de la confidentialité ?
- Où vont les datas produites en formation avec l’IA, sont-elles cryptées ?
- Quelle Transparence des algorithmes de l’IA, indispensable à la confiance des apprenants ?
- Qui est responsable en cas de défaillance de l’IA en formation ?
Ces problématiques sont prises très au sérieux par les grandes entreprises utilisant déjà les IA génératives en formation. Elles travaillent à les résoudre ou tout du moins y réfléchissent assidument !
Il en est différemment de la plupart des utilisateurs dans les petites et moyennes entreprises et de l’immense majorité des formateurs les utilisant. Le niveau de sécurité des IA y est plus rarement abordé
Un adage célèbre sur internet dit : “quand c’est gratuit, c’est toi le produit !“. Mais même quand l’IA est payante, cela ne signifie pas nécessairement que les données ne sortiront pas de la formation (ou de l’entreprise) ou seront sécurisés !
Défi n° 2 : Qui possède la propriété intellectuelle des contenus “créés” en formation avec IA ?
Les juristes restent prudents sur la question de la propriété intellectuelle des “créations avec l’IA”. Récemment un groupe de presse américain a attaqué en justice un éditeur d’IA sur le sujet précis du “pillage” de sa propriété intellectuelle. Mais nous n’avons pas encore de jurisprudence. Rappelons aussi que l’IA est par nature transnationale. Les pays devront s’accorder. Or entre les USA (où sont logés les “majors” de l’IA) et l’Asie du Sud Est (où sont produits l’essentiel des matériels nécessaires aux déploiements d’IA) d’une part, les pays de l’Union Européenne de l’autre (un nain en matière d’IA, pour le moment), les enjeux ne sont pas du tout les mêmes !
Qui possède les droits des contenus et supports de formation générés avec l’IA ? Qui conserve la propriété des contenus antérieurs à “l’intervention” de l’IA mais qui ont été modifiés par l’IA ? Inversement, si un humain “réinterprète” un contenu généré par IA, ce contenu lui appartient-t-il désormais ? Les ayant-droits sont-ils les formateurs et organismes de formation dispensant l’action de formation ? Les commanditaires, en tant que payeurs de la formation ? Les apprenants eux-mêmes, en tant que co-producteurs des contenus ? Les éditeurs et fournisseurs de l’IA ? Les questions sont complexes et les réponses pas vraiment tranchées ! Or on ne peut pas occulter que les IA génératives apprennent et sont “nourries” par leurs utilisateurs !
Défi n° 3 : Les IA vont-elles aggraver la fracture numérique en formation ?
A notre époque, l’illettrisme et la fracture numérique pénalisent une partie de la population active lors des formations continues. Des solutions formatives non adaptées sont préjudiciables aux apprenants en situation de handicap. Qu’en sera-t-il demain du fossé entre ceux qui maîtrisent et baignent dans l’IA comme des “poissons dans l’eau” et les autres ?
Certains formateurs eux-mêmes ne risquent-ils pas de rencontrer des difficultés, s’ils ne maîtrisent pas l’intelligence artificielle comme outil ?
Va-t-on assister à un gap entre d’un côté des formations premium et réellement enrichies par l’IA et autres “réalités augmentées”, réservées aux happy fews et autres insiders des grands groupes (ou étudiants des belles écoles) et de l’autre des “formations” low cost, bas de gamme pour les “décrocheurs” et outsiders ?
Défi n°4 : Quid de la mauvaise “qualité” de certaines IA ?
Des intelligences artificielles sont utilisées pour générer une “réalité alternative” (pour le dire pudiquement…) qui sera vite indécelable par l’oeil ou l’oreille des humains. Certaines “productions” sont déjà bluffantes. Le phénomène de Deep Fake, comme annoncé par le MIT, inquiète. Sans parler de dystopies à la Huxley ou Orwell. Posons-nous de manière plus prosaïque la question de la véracité et de la qualité de certaines IA génératives en formation !
La faiblesse de contenus réellement utiles ou le niveau “d’à peu-près” ou très “niaiseux” de certaines IA sont flagrants. Une IA avec des algorithmes mal fichus, des biais non contrôlés et des sources ou datas non fiabilisées, ne pourra donner que de la piètre qualité en termes de contenus pour la formation ! En 2023, on s’est même inquiété du phénomène “d’hallucination” de certaines IA (elles inventaient et racontaient n’importe quoi !). Il faudra rester vigilant !
Défi n°5 : Comment éviter la paresse cognitive ?
Nous avons évoqué dans un article récent la perte d’attention en formation des apprenants. Le défi de la paresse cognitive des apprenants est aussi critique. Certaines grandes écoles ou universités, confrontées aux problèmes de plagiat via Wikipedia (ou même à des fraudes majeures, quand des doctorants “achètent” leurs thèses, par exemple) renoncent aux épreuves de type “mémoire” pour leurs étudiants. Il serait devenu beaucoup trop facile de les produire en faisant appel à l’IA…
Qu’en sera-t-il des apprenants de la formation professionnelle : vont-ils aussi “se reposer” sur l’IA dans les exercices réflexifs ou pour renseigner leur dossier de certification ou de VAE ? Comment éviter le risque de dépendance à l’IA dans les parcours longs ? Comment éviter également que les formateurs utilisent l’IA pour produire à leur place et donc “se savonnent eux-mêmes la planche” en se rendant ainsi “totalement dispensables” ? Scénario du pire : que les formateurs baissent les bras et diminuent leur niveau d’exigence vis à vis des apprenants !
Défi n°6 : Des usages abusifs ou excessifs de l’IA, à l’ère de la sobriété ?
L’IA, tout comme les usages multiples et exponentiels d’internet, est gourmande en énergie électrique. La production électrique, surtout quand elle est décentralisée et “renouvelable”, est elle-même très consommatrice d’espaces et de ressources minérales. L’intelligence artificielle pourrait même devenir intrinsèquement polluante de par le nombre croissant de serveurs informatiques nécessaires à des usages en ligne futiles ou superflus ! Des formateurs vont par exemple s’apercevoir qu’une IA de type Runway offre la possibilité de produire facilement de la vidéo. Or la vidéo est très consommatrice de calculs pour la produire et de bande passante pour la diffuser. Mobilisons donc l’IA lorsqu’elle apporte un réel bénéfice pédagogique, pas pour faire Wahou !
De même, si nous utilisons une IA pour résoudre des questions que nos publics en formation pourraient aussi bien traiter en se creusant un peu la cervelle, on peut parler de déraison. Idem : pourquoi aussi créer des quiz systématiques via l’IA alors qu’une bonne vieille interrogation à l’oral serait moins énergivore et favoriserait mieux l’interaction entre apprenants ?
Un cerveau humain moyen en activité, demeure incroyablement plus efficace en équivalents watts consommés, qu’un réseau de serveurs informatiques et des algorithmes…la finalité de la formation professionnelle doit rester, quoi qu’il en soit, de faire agir en conscience et faire réfléchir les apprenants !
Les algorithmes n’ont pas supprimé les tournois d’échec : ils ne remplaceront pas la formation entre humains !
Il y a 25 ans déjà, l’ordinateur Deep Blue battait le grand maître Garry Kasparov ! Les tournois d’échec n’ont pas disparu et font toujours le bonheur chaque année de millions de nouveaux joueurs ! Sur les sites en ligne, plusieurs millions d’aficionados des échecs se mesurent chaque jour : l’informatique et internet ont démultiplié l’occasion de jouer aux échecs !
De même, des “modèles” algorithmiques surpassent déjà les formateurs humains dans certaines tâches. Cependant les formateurs conserveront probablement leurs “prérogatives”, surtout s’ils se positionnent, comme nous le pressentons chez C-Campus, dans des pédagogies interactives et constructives et dans l’accompagnement des apprenants. Les apprenants eux-mêmes devront garder le goût à se former avec des “vrais gens”, y compris avec l’assistance des IA !
Évidemment l’IA pose et posera également d’autres questions passionnantes, en particulier philosophiques et éthiques. Nous suivrons aussi cela avec attention…
Retrouver le dossier complet ici.
Ecrit par Henri Occre sur C-Campus.