De Technische Hochschule Köln test een demonstratiemodel voor samenwerking tussen mens en machine.
Robots kunnen werknemers helpen met repetitief werk, zoals het assembleren van kleine sensorbehuizingen. Een team van TH Köln heeft in twee onderzoeksprojecten onderzocht hoe interactie veiliger en intuïtiever kan worden gemaakt met behulp van moderne technologieën zoals gebarenherkenning, stembesturing en visualisaties in augmented reality-brillen.
Autonome machines worden in veel industrieën gebruikt, zoals de automobiel- en toeleveringsindustrie of de productie. Het komt echter nog niet veel voor dat mensen hand in hand met een robot werken. Er is nog steeds een gebrek aan acceptatie en samenwerking wordt vaak nog steeds als ondoorzichtig en ingewikkeld ervaren.
In het project 'MeRobot' werd aan de hand van het voorbeeld van het assembleren van een sensorbehuizing onderzocht hoe veiligheid en werkplezier kunnen worden gegarandeerd als mens en machine samenwerken. Hiervoor hebben de onderzoekers een zogenaamde collaboratieve assemblagecel opgezet. In het testscenario zaten mens en cobot tegenover elkaar aan een tafel. In een voorbeeld van een montagestap plaatste de cobot twee componenten bij elkaar en hield het onderdeel vervolgens voor aan de testpersoon, die de schroeven moest aandraaien.
Om het objectieve welzijn van de proefpersonen te bepalen, registreerden sensoren op het lichaam verschillende vitale functies zoals hartslag, ooglidsluitingssnelheid, pupildiameter en huidgeleidingsvermogen. De data werden vervolgens naar een centrale verwerkingseenheid gestuurd. Afwijkingen van gedefinieerde normale waarden duidden op een hoger stressniveau en waren een signaal voor de cobot om meer ondersteuning te bieden. In ruil daarvoor werden montagestappen achterwege gelaten als ze de proefpersonen te weinig uitdaging leken.
Vervolgens werden de meetgegevens geëvalueerd en werd subjectieve terugkoppeling verkregen van de dertien proefpersonen. De onderzoekers leerden dat het werken met de cobot vaak als te ingewikkeld werd ervaren. Zo konden sommige deelnemers niet beoordelen of de cobot hun input herkende. Dergelijke misverstanden vergroten de onzekerheid onder gebruikers.
Het doel van het vervolgproject 'MyRobot' was om de communicatie intuïtiever te maken voor mensen. Ook moest de interactie transparanter worden om zo de prestaties van de assemblagecel te verhogen. Hiervoor werd een reeds geteste proefpersoon uitgerust met camera’s en werd een kunstmatige intelligentie getraind met de gegevens uit de opgenomen gebaren van vijf proefpersonen. De handbewegingen van de gebruiker moeten tijdens het montageproces de gewenste reacties in de robot teweegbrengen.
Om meer transparantie in de interacties te brengen, werden aanvullende tests uitgevoerd met behulp van een augmented reality bril. Twintig proefpersonen konden zien welke montagestap de machine op dat moment aan het uitvoeren was, hoe lang dit zou duren en of de robot een invoer verwachtte, bijvoorbeeld via een spraakcommando. In een derde deelproject werden de door MeRobot verzamelde gegevens ingevoerd in een algoritme om toekomstige vitale functies te voorspellen. Dit is bedoeld om belastingschommelingen te voorkomen.
De onderzoekers konden bewijzen dat de vitale functies correct worden voorspeld binnen een tijdshorizon van één seconde met een waarschijnlijkheid van 97,93%. Deze bevinding is ook relevant voor andere potentiële toepassingsgebieden, zoals de verpleging. Uit het onderzoek bleek ook dat de proefpersonen concrete visualisatie in de AR-bril nuttig vonden. Voorbeeld: de robot overhandigt een onderdeel en er verschijnt een vakje met de overdrachtslocatie.
Een ander resultaat is dat de proefpersonen de interactie met behulp van gebarenbediening prettiger vonden vergeleken met het eerste project zonder dit optie, hoewel het geproduceerde aantal lager was. Dit kwam vooral door de hogere foutgevoeligheid van de machine. In ruil daarvoor kunnen mensen makkelijker het werktempo bepalen en zijn ze gelukkiger.
Foto: Cologne Cobots Lab