
Pour cette deuxième chronique des « Tablettes numériques de Thot », je souhaite aborder avec vous la foi inébranlable que beaucoup de personnes ont dans le savoir détenu par l’intelligence artificielle. J’entends régulièrement, que ça soit dans mon cercle privé ou en public, par exemple dans le train, que des personnes ont demandé une information à ChatGPT. En résultat, celles-ci croient le résultat produit par IA à 100%. Et pourquoi donc ? Car dans l’appellation intelligence artificielle, il y a le terme intelligence. Souvent galvaudé et amalgamé, le mot intelligence veut dire, pour le commun des mortels, « est détenteur du savoir ». Donc pourquoi ne pas croire l’intelligence artificielle ? Elle a des bases de données quasi illimitées, donc elle sache! (mot volontairement inventé, faisant une référence ironique au savoir (ou sachoir) universel que certains pensent détenir, fortement démocratisé en Europe depuis la pandémie de Covid-1)
ChatGPT ou Gemini, c’est quoi ?
Partant de ce prérequis, démystifions la pensée que l’intelligence artificielle puisse détenir le savoir universel. Tout d’abord un peu de technique. Prenons l’un des plus connus, celui qui a démarré l’engouement planétaire pour cette nouvelle technologie : ChatGPT. Nous avons là un assistant conversationnel basé sur un grand modèle de langage, abrégé en anglais : LLM (Large Language Model).
Décortiquons ensemble ces deux parties. Tout d’abord, attaquons-nous au cœur de cette technologie : le LLM ou Large Language Model.
Que fait un LLM. Il s’agit d’un modèle de langage qui s’entraine sur une très grande quantité de textes afin de prédire et générer un langage naturel de manière statistiquement plausible, par exemple comme au moyen de la conversation. Là où le grand public est généralement perdu, c’est lorsque l’on évoque le fait qu’un LLM est basé sur un réseau de neurones. Qui dit neurones, dit cerveau. Qui dit cerveau, dit intelligence. Qui dit intelligence, dit c’est vérifié et sûr ! Il s’agit certes d’un résumé très contracté, mais c’est malheureusement la situation dans laquelle on se trouve actuellement, car beaucoup de personnes font cet amalgame et raccourci très rapidement. Alors, oui un LLM est très librement inspiré des connexions neuronales du cerveau, dans sa manière technique de fonctionner. A la grande différence du cerveau humain, un LLM ne fait que prédire statistiquement une suite de mots, sans forcément comprendre les tenants et aboutissants.
Que ne fait pas un LLM. Il n’est pas doté d’une propre pensée ni d’émotions. Il ne comprendra pas le monde comme un humain, n’a pas de sentiments. Attention, il ne vérifie pas forcément la vérité de ce qu’il écrit, car statistiquement c’est la réponse la plus probable à donner à ce moment. Son « raisonnement » est basé sur des méthodologies statistiques et non sur un raisonnement tel qu’un être humain pourrait le faire, basé sur un parcours de vie (son vécu), ses connaissances apprises, ses compétences acquises, son état de santé et l’émotion dans laquelle il est au moment de la réflexion. Comme je l’ai déjà mentionné dans ma première chronique, l’intelligence artificielle n’est rien d’autre qu’un ensemble de lignes de code et de modèles mathématiques, alors que l’être humain est complexe, sa pensée n’ayant pas encore été totalement décryptée. L’art des réponses d’un LLM est : ça ressemble à quelque chose qui a déjà été écrit.
En gros, un LLM reçoit un panel de données, il effectue un apprentissage statistique et génère finalement du texte qui a une plausibilité élevée.
Maintenant, passons à la partie plus fun : l’assistant conversationnel. Finalement il s’agit de la partie que vous voyez en vous connectant, celle qui vous permet d’interagir avec l’intelligence artificielle, respectivement avec son LLM. Imaginez que si la conversation ou les requêtes devaient avoir lieu en lignes de commandes comme aux débuts de l’informatique, l’engouement ne serait peut-être pas (voir certainement pas) devenu aussi grand et puissant qu’actuellement. Cet assistant vous permet d’échanger sans avoir besoin de trop vous torturer l’esprit et en recevant une réponse bien formulée en retour et en quelques secondes, vous épargnant des heures de recherches sur Google et de la compilation d’informations. Petit à petit, vous avez l’impression que les échanges avec votre assistant conversationnel se fluidifient, qu’il vous comprend. En plus et dès le début, il vous parle comme si elle était un humain, vous mettant dans une confiance absolue. Vos échanges sont les mêmes que si vous textiez avec votre meilleur ami, vous trouvez ça cool. Enfin quelqu’un qui vous comprend, qui est disponible en tout temps. Vous avez commencé par des recherches simples, comme de traduire un texte dans une autre langue ou d’avoir de savoir où avait déjà joué un acteur de la série Stranger Things. Vous avez continué avec des recherches de recettes de cuisine pour finalement vous orienter sur votre santé, décrivant vos symptômes mieux que sur Doctissimo. Vous trouvez des réponses à ce que vous avez, cumulant les prompts sur votre état de santé. Alors je ne vous dis pas le bonheur pour un hypocondriaque, il est enfin entendu et gratuitement. Quel merveilleux biais de perception, l’humain rassuré par une machine qui n’a strictement aucune compétence pour poser un diagnostic médical. Vous ne vous en rendez pas compte, mais vous échangez plus avec votre assistant, car il est disponible, tout le temps, et partout dans le monde. Et c’est à ce moment-là que votre lien de dépendance s’accentue et devient fort, ne remettant plus en cause ce que l’intelligence artificielle vous donne comme réponse, prenant tout pour acquis et véridique.
L’assistant conversationnel, c’est chouette pour utiliser une technologie complexe telle que l’IA. Mais le problème vient dans la dépendance de l’être humain vis-à-vis de ses échanges et de sa croyance en la machine. Vous vous mettez en position de confiance, car la machine vous répond proprement et avec courtoisie, mieux que de devoir lire un article sur Wikipedia.
Des problèmes d’apprentissage ?
Maintenant que nous avons abordé l’aspect purement technique, je vous propose de plonger avec moi dans une réflexion plus profonde concernant l’apprentissage de l’IA. Comme nous l’avons vu, le LLM utilise une très grande quantité de textes pour son apprentissage. Est-ce que bien là le cœur de notre problème. L’expression « très grande » mise en corrélation avec le facteur de quantité n’est pas quantifiable, et ce pour deux facteurs. Le premier c’est que la quantité varie d’un besoin à l’autre. Une entreprise qui veut implémenter de l’IA pour des besoins internes devra la nourrir avec des données générales et d’entreprise. Un assistant comme ChatGPT, qui est ouvert au grand public, devra avoir un panel de données beaucoup plus de données, sur un spectre large de connaissances et linguistique. Le deuxième facteur est celui du temps. En effet, plus les données à apprendre sont d’un grand volume (entreprise vs le monde entier), plus il faudra du temps à votre LLM pour être performant et surtout, utilisable !
Entraîner une IA peut se faire de plusieurs manières (je ne vais en aborder que trois). L’une des plus générale est basée sur un apprentissage auto-supervisé. L’IA se nourrit d’une grande quantité de textes, prédit la suite logique et statistique et attribue automatiquement des labels aux textes. Puis vient de l’apprentissage supervisé où les résultats de l’IA sont analysés, corrigés et adaptés par des êtres humains. L’être humain va procéder à une sorte de contrôle qualité. Finalement, il y aura le feedback des utilisateurs où, parfois, deux réponses seront proposées et le demandeur devra valider la réponse obtenue. Cumulant ces aspects, nous devrions être à même d’attendre un résultat de qualité.
Nous avons parlé de l’entrainement basé sur des textes, mais il ne faut pas oublier un point. Les textes sont fournis dans différentes langues. Alors la probabilité que les textes en langue française soient moins représentés que ceux en anglais dans le set de données d’apprentissage est fortement plausible. Ceci implique donc une baisse de qualité dans une langue par rapport à l’autre. La langue d’interaction avec l’assistant conversationnel est très importante pour recevoir des résultats avec une qualité plus haute. Faites le test et vous verrez par vous-même. Mais faites le test avec un sujet plus de niche, pas au moyen d’un sujet général et bien documenté dans les langues les plus parlées.
L’IA se nourrit de… l’IA !
Nous avons précédemment abordé, dans le cadre technique, du besoin de texte pour que le LLM puisse apprendre. Le modèle de ChatGPT a utilisé une vaste banque de données, qu’il s’agisse de contenu d’internet, de documentation ou littérature spécialisée, de livres et j’en passe. Cela nous permet d’arriver à un stade où la qualité rédactionnelle de l’assistant est globalement bonne à très bonne. Il est maintenant malheureux de constater que du contenu généré par IA est en train d’envahir internet, qu’il s’agisse de livres écrits par IA et édités en auto-publication, d’articles pour des médias complètement générés par IA, juste pour soutenir l’avidité de reconnaissance et de présence de personnes qui n’ont aucun esprit critique ou créatif. Maintenant, projetons-nous dans cinq ans, lorsque le contenu généré par IA aura complètement saturé internet avec une qualité douteuse. Comme je l’ai expliqué précédemment, l’IA a besoin de données pour se nourrir et apprendre. Imaginons les résultats de recherches lorsque l’IA aura consommé ses propres déchets numériques, apprenant non pas de ses propres erreurs, mais labellisant des erreurs comme « vérifiées ou véridiques ». Les artistes ont déjà testé cet aspect il y a deux ou trois ans, lorsque le mouvement « no AI » a procédé à du data poisoning dans les œuvres d’art. Dans les grandes lignes, ils ont ajouté des perturbations invisibles à l’œil humain mais significatives pour perturber les algorithmes d’apprentissage, le rendant plus lent et moins performant.

Alors faut-il contredire l’IA ?
Maintenant, analysons ensemble. ChatGPT reçoit environ 2.5 milliards de requêtes quotidiennes. Imaginez la quantité de personnel qu’OpenAI devrait engager pour superviser les requêtes sur des sujets divers et variés dans de multiples langues. C’est juste impossible. Ceci implique donc que l’être humain qui tape un prompt soit conscient, qu’il réalise que même la machine n’est pas parfaite et ne détient pas le sachoir (1) universel. Il peut être certes difficile de remettre en cause une réponse tournée pour être acceptée par un humain, voire même pour un humain qu’il commence à bien connaître. Mais il le faut. L’être humain a adopté, ces dernières années, une fâcheuse manie, souvent par confort, celle de déléguer plus loin. Il est devenu tellement plus simple de lire et accepter le résultat de sa requête ChatGPT que de chercher, analyser et compiler individuellement les informations pour arriver à un résultat utilisable. Nous arrivons face à une paresse cognitive, où l’humain a délégué sa compétence et capacité de réflexion à la machine, gagnant ainsi du temps pour plus de paresse et au détriment de l’effort critique. Il en est arrivé, par la force des choses, à ne plus remettre en question l’IA, acceptant passivement.
C’est pourquoi, il est important que chaque résultat soit regardé avec un œil critique, remettant en cause le bien-fondé de la réponse, demandant les sources qui ont mené à ce résultat. Arrêtons de croire que l’intelligence artificielle est plus intelligente que nous et qu’elle détient tout le savoir de l’humanité. C’est faux, il s’agit ici d’un biais de perception et de compréhension. Alors pour quoi utiliser cette intelligence artificielle qui est à la portée de tout le monde, me direz-vous. Imaginez-la plutôt comme un partenaire de réflexion, un partenaire à qui vous pouvez présenter des idées et tester des impacts, un partenaire qui peut vous aider à développer vos idées ou vous ouvrir d’autres pistes de réflexion. Vous écrivez ? Utilisez-le comme assistant éditorial, demandez-lui d’être critique face à votre texte ou de relire les fautes d’orthographe. Mais même là, il faut être vigilant. Ne demandez jamais la version finale, demandez la liste des corrections à effectuer, il n’est pas parfait. Mais ne lui remettez jamais des décisions liées à votre vie entre ses lignes de code (et pas ses mains, il n’est pas humain !).
Alors la réponse est oui ! Oui, il faut contredire l’intelligence artificielle, la remettre en question, lui demander d’expliquer son raisonnement et de vous présenter ses sources. N’oubliez jamais votre propre capacité de réflexion.


Laisser un commentaire