Google-Entwickler bringen künstlicher Intelligenz bei, Witze zu erklären, was weit davon entfernt ist, wie banal es klingt, einen tiefgreifenden technologischen Fortschritt in der Art und Weise fördern kann, wie diese Systeme automatisch lernen, die menschliche Sprache zu analysieren und darauf zu reagieren.
Ziel ist es, die Grenzen der Natural Language Processing (NLP) -Technologie zu erweitern, die für große Sprachmodelle (LLMs) wie GPT-30 verwendet wird, mit denen beispielsweise Chatbots eine immer genauere menschliche Kommunikation reproduzieren können, was in den fortgeschrittensten Fällen die Unterscheidung erschwert, ob die Gesprächspartner ist ein Mensch oder eine Maschine.
In einem kürzlich veröffentlichten Artikel behauptet das Forschungsteam von Google, ein Sprachmodell namens PalM trainiert zu haben, das nicht nur realistischen Text erzeugen, sondern auch Witze von Menschen interpretieren und erklären kann.
In den dem Dokument beigefügten Beispielen demonstriert das Team für künstliche Intelligenz von Google die Fähigkeit des Modells, logisches Denken und andere komplexe Sprachaufgaben, die stark kontextabhängig sind, auszuführen, indem es beispielsweise eine Technik verwendet, die als Gedankenkettenanzeige bezeichnet wird verbessert die Fähigkeit des Systems, logische Probleme in mehreren Schritten zu analysieren, indem es den Denkprozess eines Menschen simuliert.
Durch das „Erklären der Witze“ zeigt das System, dass es den Witz versteht, und Sie können den Plot-Trick, das Wortspiel oder den sarkastischen Ausgang in der Pointe des Witzes finden, wie in diesem Beispiel zu sehen ist.
Witz: Was ist der Unterschied zwischen einem Zebra und einem Regenschirm? Eines ist ein gestreiftes Tier, das mit Pferden verwandt ist, ein anderes ist ein Gerät, mit dem Sie verhindern, dass Regen auf Sie fällt.
Erklärung der KI: Dieser Witz ist ein Anti-Witz. Der Witz ist, dass die Antwort offensichtlich ist und der Witz ist, dass Sie eine lustige Antwort erwartet haben.
Hinter der Fähigkeit von PalM, diese Indikationen zu analysieren, steht eines der größten Sprachmodelle, die jemals gebaut wurden, mit 540 Milliarden Parametern. Parameter sind die Elemente des Modells, die während des Lernprozesses jedes Mal trainiert werden, wenn das System Probendaten empfängt. Der Vorgänger von PalM, GPT-3, hat 175 Milliarden Parameter.
Die zunehmende Anzahl von Parametern hat es Forschern ermöglicht, eine Vielzahl von qualitativ hochwertigen Ergebnissen zu erzielen, ohne Zeit für das Training des Modells für einzelne Szenarien aufwenden zu müssen. Mit anderen Worten, die Leistung eines Sprachmodells wird häufig an der Anzahl der unterstützten Parameter gemessen, wobei größere Modelle in der Lage sind, aus wenigen Versuchen zu lernen, oder die Fähigkeit eines Systems, eine Vielzahl komplexer Aufgaben mit relativ wenigen Trainingsbeispielen zu erlernen.
LESEN SIE WEITER