Op 26 november vond in samenwerking met de Nederlandse AI Coalitie (NL AIC) en de AI-hub Zuid-Holland een Diner Pensant plaats, een netwerk-event dat draaide om een inhoudelijke discussie over de AI-act. Het event was goed bezocht met gasten uit het bedrijfsleven van corporates tot MKB, van overheidsinstellingen en belangenorganisaties, en nagenoeg alle wetenschappelijke instellingen uit de regio. Op initiatief van Vandana Dwarka en Marieke Kootte, beiden universitair docent wiskunde aan de TU Delft, stond deze avond in het teken van het belang van wiskundige kennis als fundament voor betrouwbare AI-systemen. De AI Act, die strenge eisen stelt aan de toetsing en robuustheid deze systemen, onderstreept de urgentie van dit onderwerp. De avond werd kundig geleid door moderator Tom Jessen.
In hun pitch voorafgaand aan de discussie lieten Dwarka en Kootte met een casus van DUO zien hoe problemen zoals discriminatie en bias hier voorkomen hadden kunnen worden door het correct toepassen van wiskundige toetsen. Ze benadrukten dat wiskundige principes beter geïntegreerd moeten worden in bestaande praktijken, zoals impact assessments en ethische richtlijnen. Kootte en Dwarka waarschuwen dat “zonder een solide wiskundige basis compliance aan de AI Act een guessing game wordt”. Als mogelijke oplossing suggereren zij een post-academische beroepsopleiding, bij uitstek geschikt om technische kennis en praktijkervaring te combineren.
Deze inzichten vormden de aanzet tot een brede discussie, aangejaagd door Jessen, waarin deelnemers vanuit verschillende disciplines nadachten over de kernvraag: hoe kunnen we wiskundige kennis en praktijk zodanig samenbrengen dat we voldoen aan de eisen van de AI Act?
Een vertegenwoordiger van een grote Nederlandse corporate geeft aan dat zij redelijk comfortabel zijn met hoe zij georganiseerd zijn om compliant te zijn aan de AI-act. Hij stelde vast dat in de teams van corporates voldoende deskundigheid voor handen is. In het MKB is de uitdaging groter, want hoewel zij waarschijnlijk minder met high-risk AI-systemen werken is de nood voor compliancy aan de AI-Act niet minder urgent. Er zit veel potentieel in het tastbaar maken van de AI-wet voor kleinere bedrijven. Eén voorstel was dat op maat gemaakte, kant-en-klare tools deze kloof kunnen overbruggen. Het ontwikkelen van gecertificeerde ‘AI-wet-conforme programma’s’ die MKB-bedrijven kunnen gebruiken kan de drempel voor MKB-bedrijven verlagen en hen vertrouwen geven in hun AI-systemen.
Een universitair hoofddocent in technische informatica benadrukt het doorbreken van disciplinaire silo’s. “Zelfs binnen ons eigen onderzoeksveld zijn er verschillende aannames over wat goede data inhoudt. Interdisciplinaire teams zorgen ervoor dat we deze aannames kruislings controleren, zodat algoritmen eerlijk en robuust zijn.” Een AI Adviseur bij de Rijksoverheid geeft met een recent voorbeeld aan hoe dit zelfs in ogenschijnlijk eenvoudige algoritmen grote gevolgen kan hebben. Een visumaanvraag-systeem markeerde disproportioneel bepaalde nationaliteiten, ondanks rigoureuze toetsen. Ongewild, maar “dit voorbeeld onderstreept de noodzaak van breder toezicht en interdisciplinaire teams om biases in een vroeg stadium te herkennen”.
Een universitair hoofddocent in Responsible AI en digitale ethiek weet uit ervaring dat deze aanpak werkt: een project bij een medisch centrum koppelde de filosofische en ethische overwegingen direct aan het ontwerp van de wiskundige modellen. Samen met clinici, sociologen, filosofen, en anderen evalueerden ze de impact van algoritmen voor vroegtijdig ontslag op patiënten. Dit soort samenwerking is essentieel om de bredere implicaties van AI te begrijpen.
Willen we met AI betekenisvol impact maken, dan is betrouwbaarheid cruciaal. Dit begint met transparantie en strekt zich uit tot het bredere ecosysteem van ontwikkelaars, gebruikers en regelgevers. Een vertegenwoordiger van de NL AIC stelt: “Onze rol als overkoepelende organisatie is om deze discussies te faciliteren en ervoor te zorgen dat alle belanghebbenden een stem hebben”.
De weg naar AI-Act compliance is wellicht complex, maar ook een kans om betere meer verantwoorde AI-systemen te bouwen. Door te investeren in onderwijs, samenwerking te stimuleren en praktische tools te ontwikkelen, kunnen organisaties niet alleen voldoen aan de wettelijke vereisten, maar ook vooroplopen in ethische AI-innovatie. Aan het eind van de discussie werd het voornemen uitgesproken dit inzicht ook te delen met de toezichthouders.