Les développeurs de Google enseignent à l'intelligence artificielle pour expliquer les blagues, ce qui, loin de la banalité, peut améliorer une avancée technologique profonde dans la façon dont ces systèmes parviennent à apprendre automatiquement à analyser et à répondre au langage humain.
L'objectif est de repousser les limites de la technologie de traitement du langage naturel (NLP), qui est utilisée pour les grands modèles de langage (LLM) tels que le GPT-30 qui permettent, par exemple, aux chatbots de reproduire une communication humaine de plus en plus précise, ce qui, dans les cas les plus avancés, rend difficile de distinguer si le l'interlocuteur est un être humain ou une machine.
Aujourd'hui, dans un article récemment publié, l'équipe de recherche de Google affirme avoir formé un modèle linguistique appelé PalM capable non seulement de générer du texte réaliste, mais aussi d'interpréter et d'expliquer des blagues racontées par des humains.
Dans les exemples qui accompagnent le document, l'équipe d'intelligence artificielle de Google démontre la capacité du modèle à effectuer un raisonnement logique et d'autres tâches linguistiques complexes qui dépendent fortement du contexte, par exemple en utilisant une technique appelée indication de la chaîne de pensée, qui améliore la capacité du système à analyser des problèmes logiques en plusieurs étapes en simulant le processus de pensée d'un être humain.
En « expliquant les blagues », le système montre qu'il comprend la blague, et vous pouvez trouver l'intrigue, le jeu de mots ou la sortie sarcastique dans la punchline de la blague, comme on peut le voir dans cet exemple.
Blague : Quelle est la différence entre un zèbre et un parapluie ? L'un est un animal rayé lié aux chevaux, un autre est un appareil que vous utilisez pour empêcher la pluie de tomber sur vous.
Explication de l'IA : Cette blague est une anti-blague. La blague est que la réponse est évidente, et la blague est que vous vous attendiez à une réponse amusante.
Derrière la capacité de PalM à analyser ces indications se trouve l'un des plus grands modèles linguistiques jamais construits, avec 540 milliards de paramètres. Les paramètres sont les éléments du modèle qui sont entraînés au cours du processus d'apprentissage chaque fois que le système reçoit des données d'échantillon. Le prédécesseur de PalM, GPT-3, possède 175 milliards de paramètres.
Le nombre croissant de paramètres a permis aux chercheurs de produire un large éventail de résultats de haute qualité sans avoir à consacrer du temps à former le modèle pour des scénarios individuels. En d'autres termes, la performance d'un modèle linguistique est souvent mesurée par le nombre de paramètres qu'il prend en charge, avec des modèles plus importants capables de ce que l'on appelle « apprendre à partir de quelques tentatives », ou de la capacité d'un système à apprendre une grande variété de tâches complexes avec relativement peu d'exemples de formation.
CONTINUEZ À LIRE