Meer veiligheid voor onderwaterrobots

Mon Dec 23 2024

12 23

Meer veiligheid voor onderwaterrobots

21/08/2024

Door Ad Spijkers

Een Duitse consortium onderzoekt hoe het gat in de AI-bescherming van autonome onderwatervaartuigen kan worden gedicht.


     

Met de toenemende automatisering neemt de inspanning die nodig is om AI-systemen te beveiligen toe. Dit zou met redelijke inspanning mogelijk moeten zijn. In het nieuwe civiele onderzoeksproject 'Simas' werken onderzoekers van het Fraunhofer für Betriebsfestigkeit und Systemzuverlässigkeit (LBF) in Darmstadt in een consortium samen met Duitse ondernemingen om de veiligheid van maritieme autonome systemen onder invloed van kunstmatige intelligentie te analyseren en evalueren.

De methodologie erachter is gebaseerd op een verdere ontwikkeling van probabilistische FMEA (Failure Mode and Effects Analysis). De projectpartners willen laten zien dat een veilige werking van maritieme autonome systemen mogelijk is ondanks een hoger automatiseringsniveau.

Veilig ontwerpen

De markt voor autonome onderwatervoertuigen (autonomous underwater vehicles, AUV) groeit. De vaartuigen kunnen bijvoorbeeld gevaarlijke of automatiseerbare taken uitvoeren, zoals het bewaken van booreilanden, pijpleidingen of offshore windturbines. AUV's maken gebruik van kunstmatige intelligentie, wat kan resulteren in onvoorspelbare beslissingen en kritieke mislukkingen.

Analoog aan AUV's kan het in het wegverkeer met sterk geautomatiseerde voertuigen gebeuren dat de objectdetectie van het systeem niet werkt. Als het voertuig bepaalde objecten zoals voetgangers of kleine obstakels niet correct herkent, heeft dat ongewenste gevolgen. Een volledige overdracht van de naderingen is niet mogelijk omdat de omstandigheden zowel in het water als in het wegverkeer verschillend zijn, zoals beperkt zicht onder water en driedimensionale bewegingen.

Nieuwe methodologie

De bestaande normen voor het beveiligen van kunstmatige intelligentie in maritieme systemen zijn ontoereikend. Ze zijn niet berekend op de complexiteit en de inspanningen die het beveiligen ervan met zich meebrengt. Praktische standaarden voor risicoanalyse en de omgang met AI in sterk geautomatiseerde maritieme systemen ontbreken of zijn nog in ontwikkeling. Fraunhofer LBF wil samen met projectpartners een methodologie ontwikkelen die risicoanalyse van AI-systemen mogelijk maakt en rekening houdt met de specifieke eisen van de maritieme industrie.

In het Simas-project werken onderzoekers van Fraunhofer LBF en een consortium onder leiding van Atlas Elektronik in Bremen aan de analyse en evaluatie van de veiligheid van maritieme autonome systemen met kunstmatige intelligentie. De projectpartners willen laten zien dat een veilige werking van dergelijke systemen met redelijke inspanningen mogelijk is, ondanks een hoge mate van automatisering. De resultaten zullen belangrijk zijn voor het evalueren van toekomstige intelligente systemen in de maritieme industrie.

Risicobeoordeling

De probabilistische FMEA, ontwikkeld bij Fraunhofer LBF, is geschikt voor een holistische risicoanalyse. Het maakt variaties van verschillende parameters van een scenario met redelijke inspanning mogelijk. De methode is gebaseerd op Bayesiaanse netwerken en is al in verschillende industrieën getest. In Simas moet het verder worden ontwikkeld om een efficiënte en alomvattende bescherming van automatische onderwatervoertuigen mogelijk te maken, inclusief het in aanmerking nemen van onzekerheden en het modelleren van schade beperkende maatregelen.

De praktische toepasbaarheid van de methodiek wordt gegarandeerd door de betrokkenheid van de systeemontwikkelaars en evaluatoren van Atlas Elektrononic, de expertise van FEV Etamax in Zittau (110  km oostelijk van Dresden) op het gebied van functionele veiligheid en de kennis van DNV SE op het gebied van classificatie.

Foto: Atlas Elektronik