LaMDA : qu’est ce que c’est ?
Avant de parler plus précisément de LaMDA, il est indispensable de commencer par aborder le sujet de Bard, l’intelligence artificielle développée par Google.
Bard, la riposte de Google à ChatGPT
Le séisme provoqué au sein du grand public par la mise à disposition de ChatGPT par OpenAI en décembre 2022 a suscité un véritable sentiment de panique dans les bureaux d’une firme que l’on pensait jusque là intouchable : Google.
Le succès planétaire connu par l’application lancée par Sam Altman et Elon Musk, en effet, est de nature à menacer le monopole – si ce n’est l’existence même – de la firme de Mountain View.
Son association avec Microsoft et son moteur de recherche Bing, en particulier, donne des sueurs froides aux employés de Google.
Le lancement de Bard a été annoncé pour le 6 février 2023 par Sundar Pichai, le PDG de Google. Ce chat bot a justement pour objectif de contrer le phénomène ChatGPT. Pour l’heure, la version de Google n’est disponible qu’aux Etats-Unis et au Royaume-Uni.
Bard est une intelligence artificielle conversationnelle annoncée comme étant de la même trempe que ChatGPT – et qui compte bien surpasser son rival !
Et LaMDA Google dans tout ça ?
LaMDA, c’est le modèle de langage sur lequel va être basé Bard. Créé en 2021, LaMDA est l’acronyme de Language Model for Dialogue Applications.
Ce système de traitement automatique de la langue a notamment pour objectif de simuler des discussions proches de conversations naturelles, quasiment humaines.
Il a été présenté au grand public lors de la conférence annuelle de l’entreprise, Google I/O. Son lancement avait d’ailleurs marqué les esprits, puisque la société avait alors eu l’idée de simuler une conversation entre Pluton et un avion en papier !
Il faut tout de même préciser que Bard, dans un premier temps, ne bénéficiera que d’une version light de LaMDA.
La controverse LaMDA
LaMDA AI a suscité la controverse bien avant ChatGPT.
En 2022, un ingénieur de Google du nom de Blake Lemoine fait la une des journaux en affirmant que l’intelligence artificielle développée par sa société était douée de sensibilité. Selon lui, LaMDA était en mesure de se poser des questions existentielles et était doté d’une conscience.
L’affaire fait couler beaucoup d’encre. Très gêné, Google licencie l’ingénieur dont (selon l’entreprise) les affirmations seraient infondées. En outre, l’ingénieur aurait violé certaines des politiques internes de la firme.
Depuis ces allégations, les propos du salarié ont été largement contredits par la communauté scientifique et par un grand nombre de spécialistes de l’intelligence artificielle.
Comme ChatGPT (et d’autres logiciels comme Jasper), Bard est un chatbot, ou agent conversationnel. En d’autres termes, il s’agit d’un automate répondant de la façon qu’il estime la plus adéquate à une question formulée par un utilisateur dans un chat.
LaMDA, sur lequel il s’appuie, est une application qui bénéficie d’une puissance de calcul dantesque. Son algorithme s’est exercé sur un corpus de texte gigantesque afin de s’inspirer de notre façon de s’exprimer, et ses réponses sont conçues pour paraître les plus naturelles possibles.
Le protocole sur lequel s’appuie LaMDA s’appelle Transformer. Il s’agit d’une architecture de neurones artificiels spécialisée dans l’aspect conversationnel. Sa base de données est constituée d’1,56T de données textuelles recueillies sur Internet – ce qui pourrait d’ailleurs potentiellement causer des problèmes de droits d’auteur à l’avenir.
Bard ne bénéficiera dans un premier temps que d’une version allégée afin que ses réponses répondent aux critères de qualité et de fiabilité les plus strictes. La firme se montre prudente, car un lancement raté aurait forcément des conséquences désastreuses pour son image.
Les objectifs de LaMDA AI
Afin d’atteindre son objectif de fiabilité, LaMDA compte se baser sur trois critères essentiels :
- La qualité
- La sécurité
- L’ancrage
Ces trois points sont évalués par des êtres humains, et sont réunis sous l’acronyme SSI.
Le critère de qualité
Le critère qualité de LaMDA s’appuie lui-même sur trois points essentiels qui sont la sensibilité, la spécificité et l’intérêt.
La sensibilité, tout d’abord, s’attache à déterminer si le bot fournit des réponses cohérentes, qui ont du sens par rapport à la question posée. En d’autres termes, il s’agit d’éviter les contradictions au cours de la conversation, et le manque de bon sens.
La spécificité est conçue pour évaluer si la réponse fournie par le chat est adapté à la conversation en cours.
Enfin, l’intérêt évalue la capacité de la réponse à éveiller l’intérêt (justement) de la réponse. Est-elle inattendue, spirituelle, profonde ?
Le critère de sécurité
Il s’agit ici d’éviter, en quelque sorte, tout dérapage de l’intelligence artificielle. L’objectif est d’empêcher au chatbot de produire une réponse susceptible de nuire à l’utilisateur.
Par exemple, LaMDA va tenter de s’assurer que Bard ne formule jamais le moindre propos susceptible d’inciter au suicide. De même, il ne devrait pas produire de résultat de type haineux, raciste ou sexiste.
Google précise cependant que son protocole se trouve encore à un stade très précoce, et que de nombreux progrès sont encore attendus. Il est encore très perfectible.
L’ancrage factuel : “LE” grand avantage de Google LaMDA ?
Ce critère,s’il répond aux attentes, est peut-être celui qui fera toute la différence dans la compétition qui règne entre Google et l’alliance Microsoft/OpenAI.
L’ancrage factuel, en effet, promet de répondre aux deux principales faiblesses de ChatGPT : sa base de données vieille de 2021, et le nombre important de fausses informations qu’il transmet encore.
LaMDA, par contre, pourra formuler ses réponses à partir des informations les plus récentes, et prendre bien en compte l’expertise de ses sources et leur fiabilité.
Cela correspond bien à la politique du plus célèbre des moteurs de recherche, qui place le principe de la fiabilité au cœur de son développement depuis de nombreuses années.
Il a ainsi développé de nombreux et puissants algorithmes capables de noter les articles publiés et de les classer selon son fameux système EEAT.
Qu’est-ce que l’EEAT ?
EEAT, c’est l’acronyme de Experience, Expertise, Authority, Trust. Il s’agit des quatre critères permettant d’évaluer la fiabilité et la confiance qu’il convient d’attribuer à un article ou un site donné – ainsi que sa pertinence.
Les articles répondant au mieux à ces critères sont placés en tête de SERP, c’est-à-dire la page de résultats affichée par le moteur de recherche suite à une requête.
LeMDA semble vouloir atteindre un objectif similaire avec ce critère.
Pour être plus précis, LeMDA ne va pas exactement juger de la fiabilité des informations en elles-mêmes, mais plutôt des sites lui servant de sources. Il est donc raisonnable de penser que ses informations proviendront le plus souvent de sites d’experts dans leur domaine.
Bard/LaMDA : la technologie du futur ?
Google – avec Bard et LaMDA – lance donc officiellement sa contre-offensive dans la guerre de l’IA qui l’oppose à OpenAI – et surtout à BingGPT, qui menace ouvertement sa mainmise dans le domaine des moteurs de recherche.
S’il a pris un peu de retard sur ses concurrents, le moteur de recherche est loin d’avoir dit son dernier mot, et peut encore très bien parvenir à tirer son épingle du jeu.
Lorsque l’on connaît la puissance de Google, le fait que LaMDA puisse se servir d’informations toutes récentes et fiables constitue potentiellement un avantage décisif dans la bataille opposant les deux géants mondiaux.
Cependant, il est encore beaucoup trop tôt pour exprimer un avis LaMDA définitif. La plateforme n’est pas encore sortie, et pourrait tout aussi bien relever du pétard mouillé que de l’outil révolutionnaire.
En outre, il faut rappeler que les progrès fulgurants de l’intelligence artificielle au cours de ces derniers mois soulèvent de nombreux débats, notamment d’ordre éthique.
La présentation de Bard au grand public est prévue dans les semaines à venir. Il sera alors possible de mieux estimer les performances de LaMDA.