Jetzt können Roboter auch Bananen schälen

Dies ist eine Entwicklung, die von Forschern der Universität Tokio vorgestellt wurde

Guardar

Roboter können Restaurants bedienen, Stunts machen und tanzen, aber eine der größten Herausforderungen besteht darin, sie zu Aktivitäten zu bewegen, die Feinmotorik erfordern.

Aus diesem Grund war das von Forschern der Universität Tokio vorgestellte Modell überraschend, bei dem ein Roboter eine Banane mit beiden Armen in drei Minuten anhebt und schält.

Während die zweiarmige Maschine nur in 57% der Fälle erfolgreich ist, ist der Index angesichts der Schwierigkeiten, die ein Roboter bei der Ausführung solcher Aufgaben mit sich bringt, recht gut.

Das Interessanteste an dieser Entwicklung ist nicht, dass künstliche Intelligenz in der Lage ist, eine Frucht erfolgreich zu schälen, sondern dass sie viele Möglichkeiten für die Zukunft eröffnet, da diese Art von motorischen Fähigkeiten Wird für Roboter verwendet, um Aufgaben auszuführen, die sorgfältige Pflege erfordern, z. B. das Bewegen kleiner Teile von einem Ort zum anderen, das Aufnehmen und Aufbewahren empfindlicher Gegenstände usw.

Die Forscher Heecheol Kim, Yoshiyuki Ohmura und Yasuo Kuniyoshi trainierten den Roboter mithilfe eines maschinellen Lernprozesses. Bei dieser Art von Training werden mehrere Proben entnommen, um diese Daten zu erzeugen, die dann für den Roboter verwendet werden, um die Aktion zu replizieren.

Kuniyoshi glaubt, dass seine Trainingsmethode KI-Systemen helfen könnte, alle Arten von Aufgaben zu erledigen, die für den Menschen einfach sein mögen, aber viel Koordination und motorische Fähigkeiten erfordern. Dies würde den Einsatz dieser Art von Technologie in Häusern, Fabriken und allen Arten von Umgebungen begünstigen.

Infobae

In den letzten Jahren sind mehrere Entwicklungen entstanden, die darauf abzielen, die Fähigkeiten von Robotern zu verbessern, damit diese Maschinen viele sich wiederholende oder routinemäßige Aktivitäten erleichtern können. Der Schwerpunkt lag wie in diesem Fall auf dem Training von Koordination, Stabilität und Feinmotorik.

Dies ist der Fall von Forschern der University of California, Berkeley, die den Motion2Vec-Algorithmus entwickelt haben, mit dem ein Roboter hergestellt werden soll in der Lage, Patienten mit der Präzision eines Menschen zu vernähen.

Zu diesem Zweck verwendeten sie ein halbüberwachtes Deep-Learning-System, mit dem der Roboter lernt, indem er sich chirurgische Videos anschaut Interventionen, bei denen Nähte durchgeführt werden. Mit diesen Informationen lernt das KI-System, die Bewegungen von Angehörigen der Gesundheitsberufe nachzuahmen, um sie genau nachzuahmen.

Die Entwickler verwendeten ein siamesisches neuronales Netzwerk, das aus der Verwendung von zwei identischen Netzwerken besteht, die zwei Datensätze getrennt empfangen und nach ihrer Verarbeitung vergleichen und ein Endergebnis anzeigen.

Infobae

Einerseits erhält das System das Video des Arztes, der die Nähte durchführt, und andererseits die Aufzeichnungen des übenden Roboters. Machen Sie einen Vergleich zwischen diesen beiden Clips und lernen Sie so, wie Sie die Genauigkeit ihrer Bewegungen verbessern können.

Die im Training verwendeten Videos sind Teil der JIGSAWS-Datenbank, in der Informationen über chirurgische Aktivitäten zur Modellierung menschlicher Bewegungen gesammelt werden. Die Daten, die Teil von JIGSWAS sind, wurden in Zusammenarbeit zwischen der Johns Hopkins University (JHU) und Intuitive Surgical, Inc. (Sunnyvale, CA. ISI) innerhalb einer vom IRB genehmigten Studie.

Infobae

Auch im Einklang mit dieser Art von Roboter-Butlern. Es gibt Modelle, die Gegenstände auf dem Boden aufnehmen und das Chaos des Hauses ordnen können Kochroboter als Verbündete in der Küche zu haben. Es gibt Optionen für das, was Sie sich vorstellen möchten, aber die Wahrheit ist, dass diese Technologie noch nicht Teil des Alltags geworden ist oder sich teilweise verbreitet hat, weil sie noch reifen, einige Funktionen optimieren und auch ihre Werte senken muss, wenn die Verwendung dieser Geräte erweitert wird.

LESEN SIE WEITER:

Guardar