De potentiële valkuilen van AI

Valkuilen van AI

Artificial Intelligence oftewel AI is een containerbegrip voor het aanleren van software om beslissingen te nemen, net zoals een mens dat zou doen. Ook bij Agium volgen we ontwikkelingen op AI-gebied op de voet. In een serie van drie artikelen gaat Wim Verheij er dieper op in. In dit artikel: de potentiële valkuilen van AI.

Lees ook deel 1: AI, wat is het en wat kun je ermee? en deel 2: Hoe pas je AI toe binnen finance?

Wie in de eerste helft van mei 2023 de krant opensloeg kon niet om de valkuilen van AI heen. Zo nam Google-topman en AI-expert Geoffrey Hinton ontslag bij zijn werkgever en waarschuwt nu voor de gevaren van deze technologie die hij zelf hielp ontwikkelen. Ook andere experts maken zich zorgen over de ontwikkelingen. De toeslagenaffaire bij de Belastingdienst bewijst dat er nog steeds het nodige mis kan gaan met AI.

Juridische aspecten

Een voorbeeld waarbij de uitdagingen van AI aan het licht komen, is de zelfrijdende auto. De zorgen liggen daar op het gebied van ethiek en privacy. Hoe zorg je dat de software zo intelligent wordt, dat de auto kan herkennen wat hij moet doen? Als een mens auto rijdt en een ongeluk veroorzaakt, dan is duidelijk wie er aansprakelijk is. De mens beslist immers zelf in een split second wat hij doet en is daar zelf verantwoordelijk voor.

Maar bij een zelfsturende auto komen andere ethische kwesties om de hoek kijken. Als de zelfsturende auto bij een ongeluk moet kiezen tussen een dier of een mens: wie kiest hij dan? En wat doet hij met de keuze tussen kind of bejaarde? En wie is aansprakelijk voor deze keuze? De software programmeur, de autofabrikant of de bestuurder? Dergelijke keuzes zijn vanuit juridisch oogpunt heel ingewikkeld. Het is een reden dat Tesla is gestopt met de zelfsturende auto.

Hoe goed is de dataset?

Als mens neem je een situatie waar, je herkent die en reageert erop door te redeneren. Dat is wat AI ook doet, en daarin schuilt juist het gevaar. AI leert van de dataset die het gebruikt: hoe beperkter die is, hoe meer hij gaat framen en beslissingen gaat nemen die niet wenselijk zijn. AI-algoritmes worden inmiddels door veel partijen gemaakt. Zo is ChatGPT gebouwd op het platform OpenAI, waarop iedereen services kan ontwikkelen.

Dagelijks komen er honderden AI-services bij. Hoe gaan die met ethiek om? Met kwaliteit en beheersbaarheid? Je weet niet wat er met data gebeurt; voor toepassingen in de zakelijke markt is dat best gevaarlijk. Ook grote partijen als Microsoft en Google erkennen de risico’s, maar zeggen tegelijkertijd ook: als wij stoppen, gaan andere partijen gewoon door en raken we op achterstand.

Hoe kleiner en beperkter de datasets, hoe minder bruikbaar de uitkomst dus is. Bij zelflerende AI-systemen – robots die zelf beslissingen nemen – moet je er voor waken dat je AI toepast, zonder dat je weet hoe die bewerking plaatsvindt of hoe het proces eruit ziet. Je moet zelf weten wat de uitkomst zou moeten zijn, zodat je die ook kunt beoordelen. Je moet de uitkomsten ‘challengen’ en ervoor waken dat je het blindelings vertrouwt. Als de uitkomst betrouwbaar is, kun je het loslaten.

Privacy

Ook is het belangrijk rekening te houden met de wet- en regelgeving rondom privacy. In Nederland gaat het dan om de AVG, in Europa om de GDPR. Hierbij gaat het om het gevaar van profileren en discrimineren. Het feit dat we steeds meer in de cloud werken, zorgt ervoor dat gegevens ergens in een datacenter in Europa staan. Daar moet je voor waken: door wie is het gebouwd? Waar gaat die data naar toe?

We leggen dit uit aan de hand van een voorbeeld bij Agium. Wij bouwen al jaren robots voor ziekenhuizen die de verrichtingen aan patiënten registreren en koppelen aan zogeheten ‘diagnose  behandelcombinaties’ (DBC’s). Deze DBC’s vormen de basis voor de rekening die de verzekeraar krijgt voor de medische behandeling. Soms gaat dat niet goed en ontstaan er ‘zwevende verrichtingen’: die zijn wel gekoppeld aan een patiënt maar niet aan een DBC. Robots signaleren dat en maken dat op orde. Dat gebeurt via zwakke AI: de redenaties zijn ingebouwd; de robot bepaalt deze niet zelf en leert er niet van. Dat bespaart de zorgadministratie in ziekenhuizen veel werk.

We bekijken nu hoe we waardevolle informatie kunnen halen uit de geschreven teksten van een arts of verpleegkundige om ontbrekende gegevens in de administratie aan te vullen. Je krijgt dan echter een probleem met privacyrichtlijnen van de AVG/GDPR wanneer je deze informatie aanbiedt aan een online AI-programma als ChatGPT, omdat er persoonsgebonden informatie in staat.

Inmiddels is er software beschikbaar die alle privacygevoelige gegevens eruit filtert en anonimiseert. ‘Dokter Jan de Vries’ wordt dan bijvoorbeeld ‘naam 1’. Na gebruik haal je deze door een tool die de gegevens weer terugvertaalt naar namen. We testen dit nu in een pilot om informatie uit geschreven berichten te halen en de juiste verrichtingen te registreren en te koppelen aan de juiste behandelaars en specialisten. Bijvoorbeeld: iedere operatie heeft een anesthesist, maar soms wordt er vergeten om deze te registreren, zeker bij spoedoperaties. Als je dat niet herstelt, wordt er minder gedeclareerd, terwijl de kosten wel worden gemaakt.

Neem contact met ons op

* geeft vereiste velden aan

Dit veld is bedoeld voor validatiedoeleinden en moet niet worden gewijzigd.

Meer informatie?

Neem dan vrijblijvend contact op met een van onze medewerkers.

Meer weten over AI?

Bel of e-mail met
Wim Verheij