Toekomstige AI-systemen zullen proberen ook het leven van ouderen te vergemakkelijken. Daarbij doet zich een breed scala aan ethische kwesties voor.
Veel mensen gebruiken spraakassistentën zoals Alexa (van Amazon), Siri (Apple) of Google Assistant voor het maken van lijstjes en snelle weerupdates. Maar deze technologieën zouden veel meer kunnen doen: doktersafspraken samenvatten, iemand eraan herinneren zijn medicijnen in te nemen en zijn agenda beheren. Ze zouden niet alleen een recept moeten kunnen lezen, maar ook gebruikers er aan herinneren ingrediënten te kopen zonder dat deze er om moeten vragen.
Als een slimme assistent kunstmatige intelligentie (AI) zou kunnen gebruiken om een deel van de cognitieve belasting voor veelvoorkomende taken weg te nemen, zou het oudere volwassenen kunnen helpen hun onafhankelijkheid en autonomie te behouden. Hetzelfde geldt voor robots die huishoudens kunnen ondersteunen.
Slimme assistenten van de volgende generatie zijn nog niet op de markt, maar de ontwikkeling is nu gaande. De toekomstige slimme assistenten moeten proactief zijn: ze moeten kunnen anticiperen op de wensen en behoeften van de gebruiker. Maar met het ontwerp van systemen die de capaciteiten van oudere volwassenen proberen te verbeteren terwijl ze cognitieve achteruitgang ervaren, doet zich een breed scala aan ethische kwesties voor.
Onderzoekers van AI-Caring (AI Institute for Collaborative Assistance and Responsive Interaction for Networked Groups) zagen de noodzaak om een aantal van deze kwesties vooraf te schetsen, in de hoop dat ontwerpers hiermee rekening zullen houden bij het ontwikkelen van de volgende generatie slimme assistenten. AI-Caring is een samenwerkingsproject tussen Georgia Tech, Carnegie Mellon University, Oregon State University, University of Massachusetts Lowell en Oregon Health & Science University. Het project wordt ondersteund door de National Science Foundation, Google en Amazon.
De onderzoekers willen een landschap creëren van de ethische kwesties waar ontwerpers rekening mee moeten houden, lang voordat geavanceerde slimme assistenten in iemands huis verschijnen. Als ontwerpers niet over deze problemen nadenken, kan een gezin of een familielid een systeem opzetten, naar huis gaan en erop vertrouwen dat hun oudere familielid veilig is – terwijl dat misschien niet het geval is. Wanneer een persoon vertrouwt op een AI-systeem, wordt die persoon kwetsbaar voor het systeem. Voor mensen met leeftijdsgerelateerde cognitieve stoornissen wordt de inzet nog hoger. Hun kwetsbaarheid neemt toe naarmate hun gezondheid achteruitgaat.
Systemen die niet correct werken, kunnen het welzijn van een oudere volwassene aanzienlijk in gevaar brengen. Als een gebruiker vertrouwt voor redelijk onschuldige dingen (bijvoorbeeld het kiezen voor een film) is dat niet erg als AI een fout maakt. Maar ouderen kunnen er op vertrouwen dat worden aan medicijninname. Als de AI zijn gebruiker er niet aan herinnert of vertelt om het verkeerde medicijn in te nemen, kan dat een groot probleem zijn.
Ontwerpers moeten systemen ontwikkelen die echt prioriteit geven aan het welzijn van de gebruiker. Ze moeten rekening houden met vertrouwen, afhankelijkheid, privacy en de veranderende cognitieve vaardigheden van een persoon. Ze moeten er ook voor zorgen dat het systeem de doelen van de gebruiker ondersteunt in plaats van de doelen van een externe partij. Dat kan een familielid zijn, maar ook een bedrijf dat producten wil verkopen.
Een AI-systeem vereist een genuanceerd en voortdurend evoluerend model van de gebruiker en zijn voorkeuren, met gegevens uit verschillende bronnen. Om zijn werk effectief te kunnen doen, moet een slimme assistent mogelijk informatie van de hoofdgebruiker delen met andere entiteiten, waardoor de gebruiker aan risico's kan worden blootgesteld.
Een gebruiker wil bijvoorbeeld dat de huisartsenpraktijk weet dat hij of zij een doktersafspraak wil. Maar hij of zij wil misschien niet dat die informatie wordt gedeeld met de kinderen, of alleen met één kind. Volgens de onderzoekers zouden ontwerpers methoden moeten overwegen om persoonlijke informatie te delen die ook het vermogen van de gebruiker om deze te controleren, ondersteunt.
Te veel of te weinig vertrouwen in de capaciteiten van het systeem zijn ook belangrijke kwesties om te overwegen. Te veel vertrouwen treedt op wanneer mensen projecteren op een technologie die niet beschikt over vaardigheden, waardoor ze in gevaar kunnen komen wanneer het systeem niet presteert zoals ze hadden verwacht. Te weinig vertrouwen kan ook een probleem zijn; als een systeem een persoon kan helpen met een belangrijke taak en de persoon ervoor kiest om het systeem niet te gebruiken, kan hij of zij zonder hulp komen te zitten.
Het doel van de analyse is om uitdagingen aan te wijzen voor het creëren van echt ondersteunende AI-systemen, zodat ze vanaf het begin kunnen worden opgenomen in het ontwerp van AI. Dit kan belanghebbenden helpen prestatiebenchmarks te creëren die deze ethische vereisten weerspiegelen. Dat is beter dan te proberen ethische kwesties aan te pakken nadat het systeem al is ontworpen, ontwikkeld en getest.
De wetenschappelijke publicatie vindt u hier.
Foto: Pexels, Jessica Lewis