I robot sono in grado di servire ristoranti, fare acrobazie e danza, ma una delle maggiori sfide è portarli a svolgere attività che richiedono capacità motorie fini.
Ecco perché il modello presentato dai ricercatori dell'Università di Tokyo è stato sorprendente in cui un robot solleva e sbuccia una banana con entrambe le braccia in tre minuti.
Mentre la macchina a due bracci ha successo solo il 57% delle volte, l'indice è abbastanza buono considerando le difficoltà che comporta un robot che esegue questo tipo di compiti.
La cosa più interessante di questo sviluppo non è che l'intelligenza artificiale sia in grado di sbucciare con successo un frutto, ma che apre molte possibilità per il futuro, poiché questo tipo di abilità motorie può essere utilizzato per i robot per eseguire compiti che richiedono una cura meticolosa come spostare piccoli pezzi da un luogo all'altro, prendere e conservare oggetti delicati, ecc.
I ricercatori Heecheol Kim, Yoshiyuki Ohmura e Yasuo Kuniyoshi hanno addestrato il robot utilizzando un processo di apprendimento automatico. In questo tipo di addestramento, vengono prelevati diversi campioni per produrre quei dati che vengono poi utilizzati dal robot per replicare l'azione.
Kuniyoshi ritiene che il suo metodo di allenamento potrebbe aiutare i sistemi di intelligenza artificiale a svolgere tutti i tipi di compiti che possono essere semplici per gli umani ma richiedono molta coordinazione e capacità motorie. Ciò favorirebbe l'uso di questo tipo di tecnologia nelle case, nelle fabbriche e in tutti i tipi di ambienti.
Negli ultimi anni sono emersi diversi sviluppi che mirano a migliorare le capacità dei robot in modo che queste macchine possano alleviare molte attività ripetitive o di routine. L'attenzione si è concentrata, come in questo caso, sull'allenamento della coordinazione, della stabilità e delle capacità motorie fini.
Questo è il caso dei ricercatori dell'Università della California, Berkeley, che hanno creato l'algoritmo Motion2Vec, che cerca di creare un robot in grado di suturare i pazienti con la precisione di un essere umano.
A tal fine, hanno utilizzato un sistema di deep learning semi-supervisionato con il quale il robot impara guardando video chirurgici interventi in cui vengono eseguite suture. Con queste informazioni, il sistema di intelligenza artificiale impara a imitare i movimenti degli operatori sanitari per imitarli accuratamente.
Gli sviluppatori hanno utilizzato una rete neurale siamese che consiste nell'uso di due reti identiche che ricevono due set di dati separatamente e dopo averli elaborati, li confronta e visualizza un risultato finale.
Da un lato, il sistema riceve il video del medico che esegue le suture e dall'altro le registrazioni del robot che si esercita. Fai un confronto tra queste due clip e impara così come migliorare la precisione dei loro movimenti.
I video utilizzati nella formazione fanno parte del database JIGSAWS, che raccoglie informazioni sull'attività chirurgica per la modellazione del movimento umano. I dati che fanno parte di JIGSSAS sono stati raccolti attraverso una collaborazione tra la Johns Hopkins University (JHU) e Intuitive Surgical, Inc. (Sunnyvale, CA. ISI) nell'ambito di uno studio approvato dall'IRB.
Anche in linea con questo tipo di maggiordomi robot. Esistono modelli in grado di raccogliere oggetti sul pavimento e ordinare al caos della casa di robot chef da avere come alleati in cucina. Ci sono opzioni per ciò che vuoi immaginare, ma la verità è che questa tecnologia non è ancora entrata a far parte della vita di tutti i giorni o si è diffusa in parte perché ha ancora bisogno di maturare, ottimizzare alcune funzioni e anche abbassare i suoi valori, cosa che accadrà quando l'uso di questi dispositivi sarà esteso.
CONTINUA A LEGGERE: