Home Artikelen Minister Hoekstra over kunstmatige intelligentie bijgepraat op RU: ‘Ik begrijp er maar de helft van’

Minister Hoekstra over kunstmatige intelligentie bijgepraat op RU: ‘Ik begrijp er maar de helft van’

Afgelopen maandag kwam Wopke Hoekstra, minister van Buitenlandse Zaken, voor een werkbezoek naar de Radboud Universiteit (RU). Hij liet zich bijpraten over artificiële intelligentie (AI) en de toepassing daarvan in allerlei gebieden. ‘Kunstmatige intelligentie heeft de potentie om onze toekomst te veranderen.’

Op maandag 3 oktober kwam minister Hoekstra naar de RU om zich bij te laten praten over kunstmatige intelligentie. Dit gebeurde middels korte presentaties van zes hoogleraren, vragenmomenten en demo’s van studenten. Hij vindt het belangrijk om over AI te worden geïnformeerd. ‘Het heeft de potentie om onze toekomst te veranderen’, zegt Hoekstra. ‘Ik begrijp er nu nog maar de helft van en de politiek heeft er ook weinig kaas van gegeten.’ 

Een verantwoorde omgang met kunstmatige intelligentie staat tijdens de middag centraal. ‘Daar kan Nederland een voorloper in zijn’, zegt Daniël Wigboldus, voorzitter van het College van Bestuur. ‘Op technologisch gebied worden we snel ingehaald door andere landen. De nadruk op een verantwoordelijke omgang kan echter mensen trekken die daaraan willen bijdragen’, antwoordt Wigboldus op de vraag van Hoekstra hoe Nederland het doet ten opzichte van de wereld. Hoekstra is in Nijmegen omdat de RU een voorloper is op het gebied van AI. ‘De RU kijkt vooral veel naar sociale aspecten’, zegt Tom Heskes, hoogleraar Data Science. ‘Het is de enige universiteit in Nederland waar de opleiding onder de Faculteit der Sociale Wetenschappen valt’, aldus Pim Haselager, hoogleraar Social Implications of AI.

Verantwoordelijkheid

Een verantwoordelijke omgang is belangrijk omdat kunstmatige intelligentie allerlei nieuwe vragen over ethiek en verantwoordelijkheid oproept. Zo vertelt Haselager in zijn presentatie dat artificiële intelligentie leidt tot verantwoordelijkheidsproblemen. ‘Algoritmes en beslissingsondersteunende systemen nemen bijvoorbeeld de besluitvorming van mensen over’, zegt hij. Vervolgens gaan mensen de algoritmes steeds meer vertrouwen en minder dingen controleren, terwijl mensen in realiteit de verantwoordelijkheid dragen. ‘Mensen blijven dus altijd potentiële morele zondebokken.’

Om te zorgen dat mensen wel verantwoordelijkheid voelen, is het onderzoeksteam van Haselager aan de RU bezig met zogenaamde reflection machines. Deze machines leggen bijvoorbeeld afwijkende data voor uit de dataset die is gebruikt voor een beslissing die door een algoritme is ondersteund. Zo worden mensen aangezet om na te denken over de beslissing en hoe deze tot stand is gekomen.

Militair domein

Ook een verantwoordelijke toepassing van AI in het militaire domein kwam tijdens het werkbezoek aan bod. Rondom de ontwikkeling van AI op militair gebied speelt een debat over de ethische bezwaren van het gebruik van dit type oorlogsvoering. Lonneke Peperkamp, hoogleraar Militaire Ethiek, vertelt over het gebruik hiervan. Naar verwachting zal er volgens de hoogleraar in de aankomende tien tot vijftien jaar een sterke ontwikkeling komen in de autonomie van wapensystemen die onder AI vallen. De vraag die door veel onderzoekers wordt opgeworpen is of de regels van oorlogsrecht bij de robots geprogrammeerd kunnen worden zodat ze aan dit recht voldoen. Aan de ene kant van het debat worden er zorgen gebaard over wie de verantwoordelijkheid heeft als AI voornamelijk autonoom gaat werken. Aan de andere kant wordt er beargumenteerd dat overheden de nationale veiligheid moeten handhaven en dit met deze technologie het beste kunnen verwezenlijken. 

Hoekstra ziet ondanks de risico’s van AI in het militaire domein ook kansen: ‘Door het inzetten van robots bij conflicten kunnen er veel mensenlevens worden gespaard.’ Hij erkent alle risico’s van artificiële intelligentie maar stelt dat het gebruik hiervan onvermijdelijk is. ‘Technologische ontwikkelingen worden vrijwel altijd doorgevoerd, als wij het niet doen dan doet iemand anders het dus wel. Het belangrijkste is dat er met een verantwoordelijke manier mee om wordt gegaan’, aldus Hoekstra. 

Onderzoeksprojecten 

Op het gebied van AI zijn verschillende onderzoeksprojecten die de RU subsidieert. Wilhelm Huck, hoogleraar Fysisch-organische chemie, is initiatiefnemer van een van deze projecten. Hij heeft het streven om een volledig geautomatiseerd laboratorium te ontwikkelen. In het zogenaamde Robotlab worden alle processen geautomatiseerd en op elkaar aangesloten. Dit heet Big Chemistry waarbij chemisch onderzoek, hoogwaardige technologie en kunstmatige intelligentie worden gecombineerd. Hierdoor kunnen er ruim honderdduizend experimenten per jaar worden uitgevoerd. Bovendien kunnen bedrijven deze faciliteit gebruiken om nieuwe producten te produceren. 

Tijdens het werkbezoek werd ook gesproken over het tweede subsidieproject. Hoogleraar Orthopedagogiek Inge Molenaar is wetenschappelijk directeur van het Nationaal Onderwijslab AI (NOLAI). Dit lab belicht de mogelijkheden die artificiële intelligentie kan bieden voor het onderwijs. ‘Een gerichte en doordachte inzet van intelligente technologie biedt kansen om de kwaliteit en snelheid van innovatie in het onderwijs te verhogen’, stelt Molenaar. Dit lab werd gister officieel geopend. Aan NOLAI zijn echter ook risico’s omtrent autonomie en privacy verbonden. De hoogleraar bevestigt dat NOLAI daarom gaat onderzoeken wat de maatschappelijke, ethische en sociale consequenties van het gebruik van AI voor het onderwijs zijn. 

Laat een reactie achter

Gerelateerde artikelen