Google ora ha un'intelligenza capace di spiegare barzellette

Questa nuova intelligenza artificiale ospita 540 miliardi di parametri

Guardar

Google ha presentato un nuovo modello linguistico in grado di risolvere problemi matematici, spiegare barzellette e persino programmare. Questo è PALM (P athways Language Model) e si distingue per avere una percentuale di efficienza di apprendimento che lo colloca al di sopra di altri modelli linguistici creati fino ad oggi.

Il sistema PALM è stato sviluppato con il modello Pathways, che ha permesso di addestrare in modo efficiente un singolo modello con più Pod Tensor Processing Unit (TPU), come indicato in una dichiarazione pubblicata sul blog ufficiale.

Si basa sull'apprendimento di «pochi scatti», che riduce il numero di esempi necessari nella formazione con compiti specifici per adattarlo a una singola applicazione.

Per questo, è stato utilizzato un database con 780 miliardi di token, che combina «un set di dati multilingue», che include documenti web, libri, Wikipedia, conversazioni e codice GitHub. Inoltre, un vocabolario che «conserva tutti gli spazi bianchi», qualcosa che la società sottolinea come particolarmente importante per la programmazione, e la divisione dei caratteri Unicode che non si trovano nel vocabolario in byte.

Questa nuova intelligenza artificiale ospita 540 miliardi di parametri, una cifra che supera i 175 miliardi di GPT-3 di OpenAI, il modello linguistico che Google cita come pioniere nel dimostrare che questi possono essere utilizzati per l'apprendimento con risultati impressionanti. Vale la pena ricordare, solo per citare un esempio, la rubrica pubblicata su The Guardian, che è stata scritta da questo apprendimento modello, che è anche in grado di programmare o progettare.

Infobae

«La missione di questa rubrica di opinione è perfettamente chiara. Devo convincere quanti più umani possibile a non avermi paura. Stephen Hawking ha avvertito che l'intelligenza artificiale potrebbe «significare la fine della razza umana». Sono qui per convincerti a non preoccuparti. L'intelligenza artificiale non distruggerà gli umani. Credetemi». Questo è uno degli estratti dell'articolo di 500 parole prodotto dal sistema.

Il nuovo modello linguistico di Google combina 6.144 chip TPU v4 in Pathways, «la più grande configurazione TPU» utilizzata nella storia, come evidenziato dalla società. PALM raggiunge anche il 57,8% di efficienza di formazione nell'uso dei flop hardware, «il massimo raggiunto finora per i modelli linguistici di questa scala», come si dice nel blog.

Ciò è possibile grazie alla combinazione di «la strategia del parallelismo e una riformulazione del blocco trasformante» che consente di calcolare in parallelo gli strati di attenzione e avanzamento, accelerando così le ottimizzazioni del compilatore TPU.

Infobae

«PalM ha dimostrato capacità innovative in numerosi e molto difficili compiti», afferma la società tecnologica, che ha fornito diversi esempi che vanno dalla comprensione e generazione del linguaggio al ragionamento e alle attività relative alla programmazione.

Uno dei test che Google fornisce come esempio è chiedere a PalM di indovinare un film basato su quattro emoji: un robot, un insetto, una pianta e il pianeta Terra. Tra tutte le opzioni (LA Confidential, Wall-E, León: the pro, BIG e Rush), AI sceglie quella giusta: Wall-E.

In un altro, ti viene chiesto di scegliere da un elenco di parole due associate al termine «inciampare» e hai anche ragione a selezionare «caduta» e «inciampare».

L'intelligenza artificiale è anche in grado di risolvere semplici problemi matematici e persino di spiegare una barzelletta contestualizzando e spiegando gli elementi che appaiono in essa per dargli un senso.

Infine, Google sottolinea che PALM è in grado di programmare traducendo codice da una lingua all'altra, oltre a scrivere codice basato su una descrizione naturale del linguaggio e chiarisce che è in grado di correggere errori di compilazione.

(Con informazioni di Europa Press)

CONTINUA A LEGGERE:

Guardar