Onderzoekers aan Cornell University hebben een robot ontwikkeld die tot betere samenwerking op afstand moet leiden.
De onderzoekers in Ithaca (bij New York) hebben een robot ontwikkeld, ReMotion genaamd, die namens een externe gebruiker fysieke ruimte inneemt, automatisch de bewegingen van de gebruiker in real-time spiegelt en belangrijke lichaamstaal overbrengt die verloren gaat in standaard virtuele omgevingen.
Wijzende gebaren, de perceptie van andermans blik, intuïtief weten waar iemands aandacht is. Bij contact op afstand verliezen we deze non-verbale, impliciete signalen die erg belangrijk zijn voor het uitvoeren van activiteiten. Onderzoekers aan Cornell University laten met ReMotion zien dat met behulp van een mobiele, geautomatiseerde robot snelle, dynamische interacties mogelijk zijn. Met verdere ontwikkeling zou ReMotion kunnen worden ingezet in virtuele samenwerkingsomgevingen, maar ook in klaslokalen en andere educatieve omgevingen.
Het idee voor ReMotion kwam voort uit ervaringen voor een populaire cursus rapid prototyping in het voorjaar van 2020, die vanwege COVID-19 grotendeels online werd gegeven. Met studenten opgesloten in een virtuele leeromgeving, begon de onderzoekers te begrijpen dat fysieke beweging essentieel is in gezamenlijke ontwerpprojecten. Teamgenoten leunen naar voren om delen van het prototype te overzien, inspecteren circuits en lossen samen foutieve code op. Vervolgens kunnen ze oplossingen bedenken op een nabijgelegen whiteboard.
Dit bewegingsbereik gaat bijna verloren in een virtuele omgeving, net als de subtiele manieren waarop medewerkers communiceren door middel van lichaamstaal en uitdrukkingen. Het soort instinctieve, dynamische overgangen die mensen maken - zoals gebaren maken of een medewerker aanspreken - is te dynamisch om via Zoom of Teams te simuleren.
Het magere, bijna 1.80 m hoge ReMotion-apparaat is uitgerust met een monitor als hoofd, omnidirectionele wielen als voeten en game engine software als brein. Het weerspiegelt automatisch de bewegingen van de gebruiker op afstand. Dit gebeurt dankzij een ander door aan Cornell University gemaakt apparaat, Neckface, dat de gebruiker op afstand draagt om hoofd- en lichaamsbewegingen te volgen. De bewegingsgegevens worden vervolgens in real-time op afstand naar de ReMotion-robot gestuurd.
Telepresence-robots zijn niet nieuw, maar externe gebruikers moeten ze over het algemeen handmatig besturen. Hierdoor worden ze afgeleid van de taak die ze moeten uitvoeren. Andere opties, zoals virtual reality en mixed reality-samenwerking, kunnen ook een actieve rol van de gebruiker vereisen. En headsets kunnen het perifere bewustzijn beperken.
In een kleine studie van ongeveer meldde een tiental deelnemers bijna allemaal een verhoogd gevoel van co-aanwezigheid en onderlinge gedragsafhankelijkheid bij het gebruik van ReMotion in vergelijking met een bestaand telerobotsysteem. Deelnemers meldden ook een significant hogere gedeelde aandacht onder externe medewerkers.
In zijn huidige vorm werkt ReMotion alleen met twee gebruikers in een één-op-één externe omgeving. Elke gebruiker moet ook fysieke ruimtes van dezelfde grootte en indeling bezetten. In toekomstig werk zijn ReMotion-ontwikkelaars van plan om asymmetrische scenario's te verkennen, zoals een enkel extern teamlid dat virtueel samenwerkt via ReMotion met meerdere teamgenoten in een grotere ruimte.
Foto: Cornell University