Het verwijderen en behandelen van nucleair afval is een gevaarlijke taak die zorgvuldigheid en nauwkeurigheid vereist.
Volgens het Government Accountability Office in Washington is er meer dan 85.000 ton verbruikte splijtstof van commerciële kerncentrales en 400.00 m3 afval van wapenprogramma's van de overheid in de VS. En die hoeveelheid groeit snel: elk jaar komt er 2000 ton verbruikte splijtstof bij.
Het verwijderen en behandelen van nucleair afval is een gevaarlijke taak die zorgvuldigheid en nauwkeurigheid vereist. Onderzoekers van het National Center for Nuclear Robotics (NCNR) aan de University of Birmingham in het Verenigd Koninkrijk vinden manieren om mensen en robots te helpen samenwerken om de klus te klaren.
De onderzoekers hebben een systeem ontwikkeld met behulp van een standaard industriële robot. Deze gebruikt een parallelle grijper om objecten te hanteren en een Ensenso N35 3D-camera van IDS om de wereld eromheen te zien. Het systeem van het team houdt in dat mensen complexere beslissingen kunnen nemen waar AI niet voor is uitgerust, terwijl de robot bepaalt hoe de taken het beste kunnen worden uitgevoerd.
Het team gebruikt drie soorten gedeelde besturing. De eerste is semi-autonomie, waarbij een mens beslissingen op hoog niveau neemt, terwijl de robot ze plant en uitvoert. De tweede is variabele autonomie, waarbij een mens kan beslissen om te schakelen tussen autonome bewegingen en door een joystick gestuurde bewegingen. De derde is gedeelde besturing, waarbij de mens bepaalde aspecten van een taak op afstand bedient, zoals het bewegen van de robotarm naar een object, terwijl de AI beslist hoe de grijper moet worden gericht om dat object het beste op te pakken.
De stereocamera zorgt voor ruimtelijk zicht, vergelijkbaar met menselijk zicht: de twee camera's bekijken objecten vanuit enigszins verschillende posities. Ze leggen beelden vast die qua inhoud vergelijkbaar zijn, maar verschillen vertonen in de positie van objecten. De software van Ensenso combineert de twee afbeeldingen om een puntenwolkmodel van het object te maken. Deze manier van kijken naar de wereld helpt de robot om nauwkeuriger te zijn in zijn bewegingen.
De puntenwolk wordt door het systeem van het NCNR systeem gebruikt om automatisch meerdere stabiele grijpposities te genereren. Omdat de puntenwolken van de 3D-camera een hoge resolutie en een hoge dichtheid hebben, is het mogelijk om nauwkeurige grijpposities te genereren voor elk object in de werkomgeving. Op basis hiervan bepaalt het 'hypothese rangschikkingsalgoritme' het volgende object dat moet worden opgepikt, op basis van de huidige positie van de robot."
De onderzoekers in het laboratorium ontwikkelen momenteel een uitbreiding van het systeem die compatibel zou zijn met een hand met meerdere vingers in plaats van een kaakgrijper. Ze werken ook aan volledig autonome grijpmethoden, waarbij de robot wordt bestuurd door AI.
Bron: The Robot Report