Robots moeten risico's leren inschatten

Mon Dec 23 2024

12 23

Robots moeten risico's leren inschatten

01/11/2023

Door Ad Spijkers

Een nieuw onderzoeksproject aan Lehigh University pakt het probleem van dubbelzinnigheid in robotperceptie aan.


     

Als robots in de toekomst echte autonomie willen bereiken, moeten ze risico’s kunnen inschatten voordat ze beslissingen nemen. De universiteit in Bethlehem (140 km westelijk van New York City) ontving subsidie om een nieuw, uit meerdere fasen bestaand en op perceptie gebaseerd controleparadigma te ontwikkelen. Dit moet robots helpen om risico's te beoordelen en uiteindelijk autonome systemen veiliger en efficiënter te maken.

Risicoanalyse

Mensen voeren voortdurend risicoanalyses uit, van hoe we rijden tot wát we zeggen en hóe we het zeggen. Door die analyse kunnen we een beslissing te nemen: doe het rustiger aan, zeg "het spijt me" en misschien niet alleen hoofdletters gebruiken in dat sms-bericht. Op dit moment kunnen robots dit soort analyses niet uitvoeren, wat betekent dat ze niet zelfstandig beslissingen kunnen nemen. Maar een wereld met autonome robots zou een wereld kunnen zijn waarin mensen zinvolle hulp krijgen van machines –hulp bij opsporing en herstel na een ramp bijvoorbeeld.

Om risicoanalyses te kunnen uitvoeren, moeten robots eerst de dubbelzinnigheid van de perceptie kwantificeren. Bij mensen is de perceptie gebaseerd op wat ze in het verleden hebben geleerd. Maar het aantal waarnemingen dat een robot of een mens van een bepaald object kan krijgen, is beperkt. Er is dus altijd onduidelijkheid en onzekerheid over wat de robot ziet. Is iets bijvoorbeeld een stopteken?

Als er ook nog ruis in de omgeving is, zoals regen, mist of duisternis, bestaat er onzekerheid over het object zelf. Is iets wel een stopteken? Er bestaat dus niet alleen onzekerheid over het object, maar ook over de identiteit van dat object binnen die klasse. De dubbelzinnigheid is dus de onzekerheid van de onzekerheid.

Dubbelzinnigheid

Dubbelzinnige perceptie bij een robot is gevaarlijk. Denk bijvoorbeeld aan de gevolgen als een zelfrijdende auto een stopbord opvat als een bord met een snelheidslimiet. Om dit probleem op te lossen, pakken de onderzoekers pakken het aan door de bronnen van onzekerheid te kwantificeren. In wezen willen ze in de zwarte doos van een reeks perceptiemodules duiken – machine learning-modellen die visuele detectie gebruiken – om beter te begrijpen hoe de modellen de omgeving waarnemen.

De relatie tussen de input (de afbeeldingen) en de output (labels zoals verkeersborden) is complex. Maar om de ambiguïteit en de output van perceptie te kwantificeren, moeten de onderzoekers deze modellen en de relaties tussen deze twee grootheden analyseren. Dan kunnen ze berekenen, als ze enige onzekerheid hebben over de output, hoe dat zou worden overgebracht naar de output. Dat is de eerste stap. Zodra ze de ambiguïteit hebben gekwantificeerd, kunnen de onderzoekers risicomaatstaven gebruiken voor besluitvormingsdoeleinden.

Risico's inschatten

Een robot die risico's kan inschatten, zou in theorie een veilige beslissing kunnen nemen over zijn volgende handelwijze. Een team van robots zou effectief kunnen communiceren. Ze zouden ook de acties van de mensen om hen heen kunnen waarnemen en daaruit afleiden hoe ze hen het beste konden helpen. Maar ze moeten eerst de risico’s inschatten om te bepalen of hun volgende handelwijze de mensen daadwerkelijk gaat helpen, of hun werk nog moeilijker gaat maken. Ze zullen veel analyses moeten doen.

Dat geldt ook voor het onderzoeksteam. Maar de onderzoekers vinden het vooruitzicht van een toekomst waarin perceptiemodules werken als een verbonden netwerk spannend. Ze konden informatie waarnemen over onze gezondheid, ons transportsysteem en onze veiligheid. Deze modules zouden met elkaar moeten kunnen en hopelijk een slimme samenleving creëren die onze gezondheid en onze levensstijl zou kunnen verbeteren.

Foto: PxHere, Alan Levine