Met een nieuwe methode kunnen robots sneller en nauwkeuriger voorwerpen herkennen en hanteren.
De dag waarop robots het avondeten kunnen koken, de keukentafel kunnen afruimen en de vaatwasser kunnen legen, is nog ver weg. Maar een onderzoeksgroep aan de University of Texas in Dallas heeft een aanzienlijke vooruitgang geboekt met een robotsysteem dat kunstmatige intelligentie (AI) gebruikt om robots te helpen objecten beter te identificeren en te onthouden. Een robot beweegt daar een speelgoedpakje boter rond een tafel in het laboratorium.
Met het nieuwe systeem kan de robot objecten meerdere keren duwen totdat een reeks beelden is verzameld. Hierdoor kan het systeem op zijn beurt alle objecten in de reeks segmenteren totdat de robot de objecten herkent. Eerdere benaderingen waren gebaseerd op een enkele duw of greep door de robot om het object te 'leren'.
Om een mok op te pakken of een fles water te brengen, moet de robot die objecten leren. De nieuwe technologie is ontworpen om robots te helpen een grote verscheidenheid aan objecten te detecteren die in omgevingen zoals huizen worden aangetroffen. Ook leren de robots om vergelijkbare versies van gewone items, zoals flessen water in verschillende merken, vormen of maten, te generaliseren of te identificeren.
In het laboratorium in Dallas staat een bak vol speelgoedverpakkingen met voedingsmiddelen zoals spaghetti, ketchup en wortels. Deze worden gebruikt om de laboratoriumrobot, genaamd Ramp, te trainen. Dit is een mobiele manipulatorrobot van Fetch Robotics die ongeveer 1,20 m hoog op een rond mobiel platform staat. Ramp heeft een lange mechanische arm met zeven gewrichten. Aan het uiteinde zit een vierkante 'hand' met twee vingers om voorwerpen vast te pakken.
De robots leren voorwerpen herkennen op een manier die vergelijkbaar is met hoe kinderen leren omgaan met speelgoed. Nadat Ramp het object heeft geduwd, leert hij het te herkennen. Met die gegevens trainen de onderzoekers het AI-model zodat de robot de volgende keer dat hij het object ziet, er niet opnieuw tegen hoeft te duwen. De tweede keer dat hij het voorwerp ziet, pakt hij het gewoon op.
Nieuw aan de methode van de onderzoekers is dat de robot elk item vijftien tot twintig keer duwt, terwijl de eerdere interactieve perceptiemethoden slechts één keer duwen gebruiken. Volgens de onderzoekers kan de robot door meerdere keren drukken meer foto's maken met zijn RGB-D-camera, die een dieptesensor bevat, om elk item gedetailleerder te leren kennen. Dit verkleint de kans op fouten.
De taak van het herkennen, differentiëren en onthouden van objecten, segmentatie genoemd, is een van de belangrijkste functies die robots nodig hebben om taken uit te voeren. Voor zover de onderzoekers weten is dit het eerste systeem dat gebruik maakt van langdurige robotinteractie voor objectsegmentatie. Het project heeft geholpen het algoritme te verbeteren dat de robot helpt beslissingen te nemen.
Het is één ding om een algoritme te ontwikkelen en dit te testen op een abstracte dataset. Maar het is iets anders om het uit te testen op taken in de echte wereld. Het zien van die prestaties in de echte wereld was voor de onderzoekers een belangrijke leerervaring. Hun volgende stap is het verbeteren van andere functies, waaronder planning en controle, waardoor taken als het sorteren van gerecyclede materialen mogelijk kunnen worden gemaakt.
De wetenschappelijke publicatie vindt u hier.
Foto: University of Texas, Dallas