Dankzij door AI aangestuurde algoritmen zouden drones zichzelf kunnen besturen met visuele oriëntatiepunten.
Een project onder leiding van onderzoekers van de University of Missouri in Columbia heeft tot doel drones uit te rusten met autonome visuele navigatiemogelijkheden. Hierdoor zou de manier waarop drones opereren en helpen bij kritieke scenario's zoals natuurrampen, mogelijk wordt veranderd.
Dankzij door kunstmatige intelligentie (AI) algoritmen zouden drones op een dag zichzelf zonder menselijke inmenging kunnen besturen. Visuele oriëntatiepunten zouden hen kunnen helpen van het ene punt naar het andere te navigeren. Dat is het doel van een tweejarig project onder leiding van onderzoekers van de University of Missouri, mede gefinancierd door het US Army Engineer Research and Development Center (ERDC).
Autonoom opereren wordt van cruciaal belang in situaties waarin er sprake is van een onderbreking of signaalverlies van GPS-navigatie. Dit kan bijvoorbeeld gebeuren na een natuurramp of in militaire conflicten.
De meeste drones die vandaag de dag actief zijn, hebben GPS-navigatie nodig om te kunnen vliegen. Als ze dat signaal verliezen, kunnen ze de weg niet vinden en landen ze meestal waar ze ook zijn. Op de grond gebaseerde navigatie-apps kunnen voertuigen omleiden als ze een afslag missen. Maar voor drones in de lucht is er momenteel geen mogelijkheid om in deze situaties een andere route te volgen.
Momenteel moet iemand handmatig een drone besturen en een hoog niveau van situationeel bewustzijn hebben. De mens moet de drone vrij houden van obstakels in zijn omgeving, zoals gebouwen, bomen, bergen, bruggen, borden of andere prominente constructies. Daarom moet een drone binnen het gezichtsveld van de piloot blijven.
De ontwikkelaars in Missouri ontwikkelen software met een combinatie van visuele sensoren en algoritmen, waarmee drones zelfstandig kunnen vliegen. Dit gebeurt onafhankelijk waarnemend en interactief met hun omgeving, terwijl ze specifieke doelen of doelstellingen bereiken.
De onderzoekers willen het scala aan vaardigheden, attributen, contextuele kennis van de omgeving, missieplanning en andere capaciteiten van dronepiloten en de weersomstandigheden in de software van de drone opnemen, zodat deze al deze beslissingen onafhankelijk kan nemen
De afgelopen jaren hebben zich de nodige ontwikkelingen op het gebied van visuele sensortechnologie zoals lidar en thermische beeldvorming voorgedaan. Dit heeft er voor gezorgd dat drones beperkte taken op geavanceerd niveau konden uitvoeren, zoals objectdetectie en visuele herkenning. In combinatie met de nieuwe algoritmen– aangestuurd door deep learning en machinaal leren – zouden drones kunnen helpen bij het ontwikkelen van geavanceerde 3D- of 4D-beelden voor kaart- en bewakingstoepassingen.
De onderzoekers proberen de kenmerken van het menselijke visuele systeem te ontcijferen en die in te bouwen in autonome, op vision gebaseerde navigatie-algoritmen vanuit de lucht en op de grond. Voor het ontwikkelen van geavanceerde beeldmogelijkheden zijn verwerkingskracht, geheugen en tijd nodig. Dat gaat verder dan wat momenteel beschikbaar is via het softwaresysteem dat doorgaans beschikbaar is aan boord van een drone. Daarom onderzoekt het ontwikkelteam hoe de kracht van cloud, high-performance en edge computing methoden kan worden benut voor een mogelijke oplossing.
Na een zware storm of een natuurramp zal er schade optreden aan gebouwen, waterwegen en andere vormen van infrastructuur. Een 3D-reconstructie van het gebied zou hulpverleners kunnen helpen begrijpen hoeveel schade is aangericht. Door de drone onbewerkte data te laten verzamelen en die naar de cloud te sturen, kan de hier aanwezige krachtige software de analyse voltooien en het 3D digital twin-model ontwikkelen. Dat kan zonder dat extra software fysiek hoeft te worden geïnstalleerd op de drone.
Foto: PxHere