Es wird erwartet, dass kostengünstige Sensorhandschuhe es Robotern ermöglichen, Objekte durch Berühren zu erkennen

- May 30, 2019-


Forscher des Laboratoriums für Informatik und künstliche Intelligenz des Massachusetts Institute of Technology (MIT-CSAIL) haben kürzlich einen kostengünstigen Sensorhandschuh entwickelt, mit dem künstliche Intelligenz erkennen kann, wie Menschen Objekte durch Berührung erkennen. Der so genannte Retractable TActile Glove (STAG) verwendet 550 winzige Drucksensoren, um Muster zu erzeugen, mit denen verbesserte Roboter hergestellt werden können.


Sensor gloves and robot


Menschen können sehr gut mit Berührungen herausfinden, was ein Objekt ist (zum Beispiel, wenn sie im Dunkeln nach einer Brille oder einem Handy suchen). Ingenieure hoffen, dass Roboter dieser Fähigkeit folgen können. Eine Möglichkeit, dies zu tun, besteht darin, so viele Informationen wie möglich darüber zu sammeln, wie Menschen tatsächlich durch Berührung erkennen. Der Grund dafür ist, dass bei einer ausreichend großen Datenbank maschinelles Lernen nicht nur zur Analyse herangezogen werden kann, um daraus zu schließen, wie die menschliche Hand etwas erkennt, sondern auch, um das Gewicht abzuschätzen - Roboter und Prothesen sind schwierig.


Das Massachusetts Institute of Technology sammelt diese Daten über kostengünstige Strickhandschuhe mit 550 Drucksensoren. Die Handschuhe werden an den Computer angeschlossen, der Computer sammelt die Daten und die Druckmessungen werden in eine Video- "taktile Karte" umgewandelt und in das Convolutional Neural Network (CNN) eingegeben. Das Netzwerk kann Bilder klassifizieren, um bestimmte Druckmuster zu finden und sie bestimmten Objekten zuzuordnen.


Das Team sammelte 135.000 Videoframes von 26 gängigen Objekten wie Getränkedosen, Scheren, Tennis, Löffeln, Stiften und Bechern. Das neuronale Netzwerk passt dann das halbzufällige Bild an einen bestimmten Klemmpunkt an, bis ein vollständiges Bild des Objekts erstellt ist - ähnlich wie die Art und Weise, wie Menschen Objekte durch Rollen von Objekten in ihren Händen erkennen. Durch die Verwendung von halbzufälligen Bildern kann das Netzwerk mit relevanten Bildclustern versehen werden, sodass keine Zeit für irrelevante Daten verschwendet wird.


„Wir möchten den Unterschied zwischen den Frameworks maximieren und den besten Input für unser Netzwerk liefern“, sagte Petr Kellnhofer, Postdoktorand bei CSAIL. "Alle Frames in einem einzelnen Cluster sollten ähnliche Signaturen haben. Diese Signaturen stellen eine ähnliche Methode zum Greifen von Objekten dar. Das Abtasten von mehreren Clustern simuliert eine menschliche Interaktion, wenn versucht wird, Objekte zu untersuchen und verschiedene Möglichkeiten zum Greifen zu finden."


Gegenwärtig erkennt das System Objekte mit einer Genauigkeit von 76%, was den Forschern auch hilft, zu verstehen, wie die Hand sie ergreift und manipuliert. Zur Schätzung des Gewichts erstellten die Forscher außerdem eine separate Datenbank mit 11.600 Bildern, aus der hervorgeht, dass Objekte vor dem Sturz mit Fingern und Daumen aufgenommen wurden. Das Gewicht kann gemessen werden, indem der Druck um die Hand gemessen wird, während sie gehalten wird, und dieser nach dem Fallen verglichen wird.


Ein weiterer Vorteil dieses Systems sind die Kosten und die Empfindlichkeit. Ähnliche Sensorhandschuhe sind Tausende von Dollar wert, aber nur 50 Sensoren. Die MIT-Handschuhe werden aus handelsüblichen Materialien hergestellt und kosten nur 10 US-Dollar.


Ein paar:Tesla bringt neue Sensorhardware auf den Markt Verwenden Sie für das automatische Fahren 12 Ultraschallsensoren Der nächste streifen:Der neue Tracking-Sensor misst den Druck mit nur einem Tropfen Körperflüssigkeit