Het ontrafelen van de black box van AI

Nieuws
15-03-2024
Marta Jiménez
De beloften van kunstmatige intelligentie zijn enorm en de mogelijkheden eindeloos. Maar kunnen we machines ons leven toevertrouwen? Als zij namens ons handelen, doen ze dat dan op een verantwoordelijke manier? Als er iets misgaat met de kunstmatige intelligentie (AI), wie is daar dan op aan te spreken? En wat gebeurt er als we er niet in slagen om vooroordelen en discriminatie aan te pakken?

Artikel Marta Jiménez, Universiteit van Utrecht

Zelfrijdende auto's en zorg- en operatierobots zijn in aantocht. Artificiële ofwel kunstmatige intelligentiesystemen kunnen onze wegen veiliger, het leven van gehandicapten en ouderen gemakkelijker en het herstel van patiënten sneller maken. De beloften van kunstmatige intelligentie zijn enorm en de mogelijkheden eindeloos. Maar kunnen we machines ons leven toevertrouwen? Als zij namens ons handelen, doen ze dat dan op een verantwoordelijke manier? Als er iets misgaat met de kunstmatige intelligentie (AI), wie is daar dan op aan te spreken? En wat gebeurt er als we er niet in slagen om vooroordelen en discriminatie aan te pakken? Aan de Universiteit Utrecht werken we aan het ontwerpen van betere, meer verantwoordelijke AI-systemen waar wij mensen op kunnen vertrouwen. Dit houdt in dat we de machines leren om te beredeneren en keuzes te rechtvaardigen, net zoals wij dat doen. En het betekent ook dat we een aantal van de meest urgente ethische en juridische uitdagingen die AI met zich meebrengt oplossen.

Hier is een gedachte-experiment: Je staat bij de tramhalte en je ziet een op hol geslagen karretje over de rails op vijf mensen - die dit niet opmerken - afkomen. Stel je zou het karretje kunnen omleiden naar een spoor waar zich maar één persoon bevindt. Wat doe je? Offer je die ene persoon op om die andere vijf te redden?

Het trolleyprobleem is al decennialang een klassiek dilemma in cursussen ethiek en filosofie. "Zodra de experimentele zelfrijdende auto's de weg op gingen, werden we geconfronteerd met een dilemma uit de echte wereld: met welke instructies moet het AI-systeem geprogrammeerd worden om te handelen in een leven-of-dood situatie?" stelt filosoof Sven Nyholm van de Universiteit Utrecht. "Dat willen we weten voordat we onze veiligheid aan het systeem toevertrouwen."

Lees verder >>


Lees verder op: Universiteit Utrecht

Gerelateerde vacatures

Geïnteresseerd in een carrière bij organisaties in ditzelfde vakgebied? Bekijk hieronder de gerelateerde vacatures en vind de perfecte match voor jou!
Top vacature
ABN AMRO Pensioenfonds
In overleg
Senior
Amsterdam
Voor ABN AMRO Pensioenfonds zoeken wij een Information Security Officer. Je bent verantwoordelijk voor het identificeren van beveiligingsrisico’s en het ontwikkelen van passende maatregelen om deze risico’s te verminderen. Zodoende...
Top vacature
EY
Marktconform
Junior, Medior
Amsterdam
Als senior ethisch hacker in het team draag je bij door het proactief identificeren van cybersecurity risico’s en kwetsbaarheden, bedreigingen te monitoren en de effecten van echte aanvallen in de...
Top vacature
Flynth
4.047 - 6.385
Medior, Senior
Arnhem
Je adviseert over informatiebeveiliging en cybersecurity. Je implementeert maatregelen samen met jouw collega’s om Flynth weerbaar te houden tegen dreigingen.
Top vacature
Stater
Max. 6.500
Medior
Amersfoort
Het CISO-office van Stater houdt Stater cyberveilig! Als onderdeel van de tweede lijn en rapporterend aan de CFRO, werk je nauw samen met IT, het IT Operations Security team en...