Nieuw onderzoek aan Carnegie Mellon University kan robots helpen om lagen stof te voelen in plaats van te vertrouwen op computer vision tools.
Mensen gebruiken hun gezichtsvermogen en tastzin om een glas te pakken of een stuk stof op te pakken. Voor robots zijn deze taken echter moeilijk. De hoeveelheid gegevens die via aanraking wordt verzameld, was tot voor kort moeilijk te kwantificeren en het gevoel was moeilijk te simuleren in robotica.
Mensen kijken en reiken naar voorwerpen en gebruiken aanraking om er zeker van te zijn dat ze in de juiste positie zijn om ze te grijpen. Mensen denken daar niet zo veel over na, dus ze realiseren zich niet hoe waardevol dat is. Maar om bijvoorbeeld de was op te vouwen, hebben robots een sensor nodig die nabootst hoe de vingers van een mens de bovenste laag van een handdoek of overhemd kunnen voelen en de lagen eronder kunnen vastpakken. Onderzoekers zouden een robot kunnen leren om de bovenste laag stof te voelen en vast te pakken. Maar als de robot de andere lagen stof niet waarneemt, zou hij alleen de bovenste laag pakken en de stof nooit met succes vouwen.
Tactiele waarneming zou de oplossing kunnen bieden. Onderzoekers van Carnegie Mellon in Pittsburgh en Meta AI ontwikkelden daarom ReSkin. De open-source touch-sensing 'huid' is gemaakt van een dun elastisch polymeer ingebed met magnetische deeltjes om drieassig tactiele signalen te meten. De onderzoekers gebruikten ReSkin om de robot lagen stof te laten voelen in plaats van te vertrouwen op zijn zichtsensoren om ze te zien.
Door de veranderingen in de magnetische velden van depressies of beweging van de huid te lezen, kunnen de onderzoekers tactiele waarneming bereiken. Ze kunnen deze tactiele waarneming gebruiken om te bepalen hoeveel lagen stof ze hebben opgepakt door met de sensor te knijpen.
Ander onderzoek heeft tactiele detectie gebruikt om stijve voorwerpen vast te pakken. Maar stof is vervormbaar, wat betekent dat het verandert wanneer het wordt aangeraakt, wat de taak nog moeilijker maakt. Door de greep van de robot op het doek aan te passen, verandert zowel de houding als de sensormetingen.
Onderzoekers hebben de robot niet geleerd hoe of waar hij de stof moet vastpakken. In plaats daarvan leerden ze hem hoeveel lagen stof hij vasthield door eerst te schatten hoeveel lagen hij vasthield met behulp van de sensoren in ReSkin. Vervolgens past hij de grip aan om het opnieuw te proberen. Het team evalueerde de robot die zowel één als twee lagen stof oppakte en gebruikte verschillende texturen en kleuren stof om generalisatie buiten de trainingsgegevens aan te tonen.
De dunne flexibele ReSkin-sensor maakte het mogelijk om de robots te leren omgaan met zoiets delicaats als lagen stof. Het profiel van de sensor is zo klein, dat de onderzoekers de delicate taak konden uitvoeren door hem tussen lagen stof te plaatsen. Dat is niet mogelijk met andere sensoren, met name optische sensoren. De onderzoekers konden de sensor gebruiken om taken uit te voeren die voorheen niet haalbaar waren.
Er moet echter nog veel onderzoek worden gedaan voordat de wasmand aan een robot wordt toevertrouwd. Het begint allemaal met stappen zoals het gladstrijken van een verfrommelde doek, het kiezen van het juiste aantal lagen stof om te vouwen en vervolgens de stof in de juiste richting vouwen.
De onderzoekers zijn echt bezig met een verkenning van wat ze kunnen doen met deze nieuwe sensor. Ze onderzoeken hoe ze robots met deze magnetische huid dingen kunnen laten voelen die zacht zijn. Ook onderzoeken ze eenvoudige strategieën om kleding te manipuleren die nodig zijn voor robots om uiteindelijk de was te kunnen doen.
Foto: Carnegie Mellon University