NL AIC Diner Pensant – AI-hub Zuid-Holland
november 26 - 17:00 - 20:00
Register
De Nederlandse AI Coalitie (NL AIC) en de AI-hub Zuid-Holland organiseren het Diner Pensant bij Mondai | House of AI te TU Delft. De gelegenheid voor de makers & shapers van AI om samen te komen!
Na wereldwijde voorbeelden van discriminerende algoritmes, waaronder ook de Nederlandse toeslagenaffaire en DUO, is de roep om risicobeheersing wetgeving van AI gegroeid en gerealiseerd via de EU AI Act. Naast regelgeving over de impact en ethische aspecten van hoog-risico AI is er nu ook wettelijk vastgelegd dat algoritmen gevalideerd moeten worden op technisch inhoudelijke gronden.
Thema van de avond:
Hoe kunnen we er met het bedrijfsleven, juristen, wetenschappers, beleidsmakers, en mensen uit de praktijk voor zorgen dat AI-ontwikkeling een inhoudelijke waarborg krijgt?
Uit een recente review van 15 bekende AI impact assessments blijkt dat er überhaupt geen rekening wordt houden met wiskundige validatie. Daarop komt nog dat volgens een recent onderzoek van de Algemene Rekenkamer “het op valt dat de door ons onderzochte organisaties niet standaard beschikken over de expertise die nodig is voor risicobeheersing van het algoritme.”
Tot op heden is er geen invulling voor een integrale toetsing waarin het fundament van AI, namelijk de wiskunde, ook mee wordt genomen, maar waar de wet nu wel om vraagt.
Met oog op deze nieuwe wetgeving, de groeiende roep van het bedrijfsleven en de verantwoordelijkheid van de opleiders, vragen Marieke Kootte en Vandana Dwarka van de TU Delft in dit Diner Pensant aandacht voor de rol van wiskundige validatie als aanvulling op de bestaande ethische en impact-gedreven toetsing. Onder het genot van een goede maaltijd gaan we het gesprek aan met AI-experts en deelnemers aan het diner om vanuit verschillende expertises, achtergronden en disciplines te verkennen hoe deze toetsen – validatie, impact en ethiek – een integrale bescherming zouden kunnen bieden tegen discriminerende algoritmes.
Programma
16.30 – 17.00 Inloop en Ontvangst
17.00 – 17.15 Opening en Introductie
17.15 – 18.00 Open themadiscussie: “Waarborg inhoudelijke AI-ontwikkeling”
18.00 Netwerk Diner
NL AIC en het Diner Pensant
Het is voor de NL AIC belangrijk om in gesprek met de makers & shapers van AI inzichten, uitdagingen en suggesties op te halen om die mee te kunnen nemen in gesprekken met beleidsmakers of in de vorming van departementale digitale strategieën. De 7 regionale AI Hubs in Nederland organiseren elk een Diner Pensant met partners, ondernemers, overheden en andere stakeholders in het regionale AI-ecosysteem. Naast inhoudelijke discussies is er zodoende natuurlijk ook gelegenheid om elkaar beter te leren kennen en samenwerkingsmogelijkheden te verkennen.
Hoe kunnen we er met het bedrijfsleven, juristen, wetenschappers, beleidsmakers, en mensen uit de praktijk voor zorgen dat AI-ontwikkeling een inhoudelijke waarborg krijgt?
Bij deze waarborg komen veel verschillende disciplines kijken: wiskunde, rechten, ethiek, informatica, etc. Deze disciplines weten elkaar vaak niet te vinden en de rol van wiskunde is nog ondergeschikt bij de ontwikkeling van AI. Een recente fiod vacature van de Belastingdienst vroeg bijvoorbeeld voor de ontwikkeling van hoog-risico algoritmes enkel praktijkervaring en geen kennis van statistiek, lineaire algebra of numerieke wiskunde.
De dringende vraag is, hoe kunnen we al deze aspecten verenigen en waarborgen? Om deze, op dit moment nog losse expertises te harmoniseren, zouden bijvoorbeeld net als advocaten, artsen, tolken en accountants, AI-engineers een beroepsopleiding moeten volgen. Hier worden niet alleen de modellen wiskundig gevalideerd en gestress-test, maar leren ze verantwoordelijkheid te nemen door de ethische gevolgen en impact van hun handelen in de praktijk te ervaren.
Graag willen we hier samen met jullie over nadenken tijdens dit Diner Pensant. We brengen verschillende disciplines en werkvelden samen. Deelvragen die we onder andere willen stellen zijn de volgende:
• Hoe kijken jullie vanuit de praktijk naar de rol van opleiders ?
• Welke rol zien we per sector bij het inbedden van de wiskundige waarborg?
• Welke concrete resources hebben we per sector (technologie, rechten, governance en opleiding) nodig om deze invulling vorm te geven?
• Wat kunnen we leren van andere beroepen die een grote impact hebben op burgers?
• Welke praktische bezwaren zijn er tegen meer wiskunde op de AI werkvloer?
• Hoe laten we een techneut praten met een jurist?
Recente voorbeelden, zoals de toeslagenaffaire en de problematiek bij DUO, hebben laten zien dat algoritmen, die onder AI vallen, kunnen discrimineren. Om dit te voorkomen wordt er steeds meer risicobeheersing wetgeving opgesteld, waaronder de Europese AI Act, die ook voor Nederland geldt. In deze act is nu wettelijk vastgelegd dat naast de impact en ethische aspecten van AI, hoog-risico algoritmen gevalideerd moeten worden op inhoudelijk technische gronden, zoals nauwkeurigheid en robuustheid van het algoritme zelf.
Hoewel we al meerdere impact assessments voor AI voorbij hebben zien komen, bestaat er nog geen raamwerk voor de inhoudelijke invulling van begrippen als nauwkeurigheid en robuustheid van het algoritmen. Dit, terwijl de wet daar nu wel om gaat vragen en de tijd dringt.
Uit een recente review van 15 bekende impact assessments, blijkt dat er überhaupt geen rekening wordt houden met wiskundige validatie. Daarop komt nog dat volgens een recent onderzoek van de Algemene Rekenkamer “het op valt dat de door ons onderzochte organisaties niet standaard beschikken over de expertise die nodig is voor risicobeheersing van het algoritme.”
Ongeacht de verschillende expertises die samen komen bij AI-ontwikkeling, moeten we voor inhoudelijke validatie van algoritmes en invulling van termen als ‘nauwkeurigheid’ en ‘robuustheid’ toch bij wiskundigen zijn. Dit, omdat vaak enkel expliciete vormen van discriminatie, zoals selecteren op etniciteit en religie, herkenbaar is. Om AI-ontwikkelaars bewuster te maken van de impliciete varianten, is kennis van de passende wiskundige toetsen en de aannames daarachter nodig. Mede hierom is in Silicon Valley recent een convenant ondertekend (MathMatters) door alle grote AI Tech giganten waarin ze oproepen tot een stevige wiskundige basis bij hun toekomstige werknemers. Deze wiskundige kennis kan een inherente bescherming tegen discriminerende algoritmes bieden, maar wordt op dit moment in de praktijk niet of nauwelijks gevraagd aan AI-ontwikkelaars.
Met oog op deze nieuwe wetgeving, de groeiende roep van het bedrijfsleven en de verantwoordelijkheid van de opleiders, vragen we in dit Diner Pensant aandacht voor de rol van (wiskundige) validatie als aanvulling op de bestaande ethische en impact-gedreven toetsing. Met verschillende expertises en disciplines willen we verkennen hoe deze toetsen (validatie, impact en ethiek) een integrale bescherming zouden kunnen bieden tegen discriminerende algoritmes.