BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//Mondai - ECPv6.15.17//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-ORIGINAL-URL:https://mondai.tudelftcampus.nl/en/
X-WR-CALDESC:Events for Mondai
REFRESH-INTERVAL;VALUE=DURATION:PT1H
X-Robots-Tag:noindex
X-PUBLISHED-TTL:PT1H
BEGIN:VTIMEZONE
TZID:Europe/Amsterdam
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20230326T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20231029T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20240331T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20241027T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20250330T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20251026T010000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=Europe/Amsterdam:20241119T140000
DTEND;TZID=Europe/Amsterdam:20241119T170000
DTSTAMP:20260421T173452
CREATED:20240927T073530Z
LAST-MODIFIED:20241114T085017Z
UID:10000200-1732024800-1732035600@mondai.tudelftcampus.nl
SUMMARY:Symposium - Feminist AI: Shaping Ethical Futures
DESCRIPTION:Symposium – Feminist AI: Shaping Ethical FuturesShaping a more inclusive and ethical AI landscape \nWe are excited to officially launch the Feminist Generative AI Lab through the Symposium “Feminist AI: Shaping Ethical Futures”. Please join the Feminist Generative AI Lab\, Mondai | House of AI and Convergence AI\, D&D on November 19th. \nWhen – Symposium on November 19th 14.00 – 17.00 and PhD workshop on November 20th in the morning\nWhere – Mondai | House of AI\, Next Delft (TU Delft Campus) and online (More info to come)\nWhat – We explore the intersections of artificial intelligence\, ethics\, and feminist approaches to technology in a dialogue about the future of AI through a feminist lens. It is a conversation for all genders about less dominant alternatives\, bridging binary oppositions\, and embracing pluralism and differences in the design and development of AI. \nJoin us to network\, exchange ideas\, explore questions on how to adopt feminist theories as a force of change\, and collaborate across academia\, practice and for a more inclusive and ethical AI landscape! \nProgramme \n13.30 – 14.00 – Arrival and Check-in\n14.00 – 14.10 – Welcome & Introduction\n14.10 – 15.00 – Keynotes by: \nEleanor Drage\, Senior Research Fellow\, Leverhulme Centre for the Future of Intelligence\, University of Cambridge \nAbigail Oppong\, Independent Researcher\, Ghana \n15.00 – 15.15 – Break and refreshments\n15.15 – 16.00 – Keynotes by: \nLaura Forlano\, Professor\, College of Art\, Media and Design (CAMD)\, Northeastern University  \nJoana Varon\, Founder Executive Directress\, Coding Rights; Tech and Human Rights Fellow\, Harvard Kennedy School \n16.00 – 16.15 – Break and refreshments \n16.15 – 17.00 – Panel discussion + Q&A with audience \nPanel Moderator: Sally Wyatt\, Professor of Digital Cultures\, Faculty of Arts and Social Sciences\, Maastricht University  \n17.00 – 18.00 – Closing remarks\, followed by drinks and networking \nEleanor Drage\nBio: \nEleanor is a Senior Research Fellow at the University of Cambridge\, and Co-Director of the AI: Narratives and Justice Programme. She is PI on the HEAT project\, an AI ethics and regulation project that helps companies respond to the EU AI act. She also uses feminist and anti-racist ideas to improve society’s understanding of AI. She is the co-host of the award-winning The Good Robot Podcast\, where she interviews top scholars and technologists about AI ethics. She has also worked with Google DeepMind\, The Financial Times\, The United Nations Data Science & Ethics Groups\, CNN\, BNP Paribas\, The Open Data Institute (ODI)\, and the Institute of Science & Technology. She’s co-editor of The Good Robot: Feminist Voices on the Future of Technology (Feb 2024)\, and Feminist AI: Critical Perspectives on Algorithms\, Data and Intelligent Machines (Oct 2023).  \nKeynote Abstract: \nCan the EU AI Act be Feminist? \nIn this talk\, Eleanor introduces HEAT\, a somewhat anarchic regulation tool that takes a feminist approach to helping companies meet the EU AI Act’s obligations. She explains why feminism brings the AI Act to life\, addresses its shortcomings\, and makes the Act meaningful and interesting for technologists. We explore why addressing ‘bias’ isn’t enough\, ‘diversity in tech teams’ needs to be properly defined and explained\, and there’s no such thing as an AI ethics expert. \nLaura Forlano\nBio: \nLaura Forlano\, a Fulbright award-winning and National Science Foundation funded scholar\, is a disabled writer\, social scientist and design researcher. She is Professor in the departments of Art + Design and Communication Studies in the College of Arts\, Media\, and Design and Senior Fellow at The Burnes Center for Social Change at Northeastern University. She is the author of Cyborg (with Danya Glabau\, MIT Press 2024) and an editor of three books: Bauhaus Futures (MIT Press 2019)\, digitalSTS (Princeton University Press 2019) and From Social Butterfly to Engaged Citizen (MIT Press 2011). She received her Ph.D. in communications from Columbia University. \nKeynote Abstract: \nIn this keynote talk\, Laura Forlano will draw on her new book\, Cyborg (MIT Press)\, co-authored with Danya Glabau in order to examine the question of whether 21st century technologies—from smartphones to medical devices to the commonplace use of artificial intelligence—have made cyborgs of us all? The book takes feminist cyborg theory as their starting point to explore the myriad ways that technology traverses our daily lives and practices and to ask: how do social and cultural factors—from gender to race\, class to ability—affect how technologies are imagined\, developed\, put to use\, and\, crucially\, resisted? Forlano and Glabau present an approach called “critical cyborg literacy” that brings together insights from critical feminist\, race\, and disability thinkers in an effort to reframe popular and scholarly conversations around the affordances of cyborg theory and to reimagine the cyborg in light of emerging technologies like automation and AI. \nJoana Varon\nJoana Varon is the Executive Directress and Creative Chaos Catalyst at Coding Rights and a researcher affiliated to the Berkman Klein Center for Internet and Society at Harvard University. Alumni at Mozilla Foundation and at the German Institut für Auslandsbeziehungen (IFA).\nUsing creativity\, hacker knowledge to disseminate feminist and decolonial approaches to technologies\, she is co-creator of several projects operating in the interplay between activism\, arts and technologies\, such as Tech Cartographies\, The Compost Engineers\, Oracle for Transfeminist Tech\, Musea Mami\, Chupadados – the data sucker\, Safer Nudes\, among others. \nAbigail Oppong\nBio: \nAbigail Oppong is a renowned advocate for AI ethics\, focusing on addressing biases in NLP and health systems and enhancing fairness in AI technologies\, especially for underserved communities. Named among the 100 Women in AI Ethics in 2023\, she collaborates with academia\, industry\, and NGOs to develop responsible AI systems tailored to local needs. Abigail’s expertise in data science and machine learning underpins her efforts to shape ethical AI governance\, particularly in Africa. Her interdisciplinary approach and previous experience in the nonprofit sector enrich her contributions to AI ethics\, emphasizing the importance of localization\, trust\, culture\, and representation in technological development. Her passion for community development influenced her research journey to investigate how local organizations can be empowered in the age of emerging technologies. \nAbstract:  \nAn Invisible Lens on AI: Developing Inclusive Technologies for Diverse Communities \nAddressing gender bias in AI systems\, particularly for low-resourced African languages and the continent’s rich cultural diversity\, tends to be a challenge. In this talk\, I will explore how using methods like informal sessions\, participant observation\, digital content analysis\, and AI model character analysis could help mitigate these biases. The insight gained from this research extends to assessing the current landscape of AI Technologies for marginalized communities in sectors such as health. Emphasizing a more feminist and community-centered approach\, this talk will highlight the importance of designing technologies that truly serve local needs\, gearing more into case studies that reveal the power dynamics influencing AI development across various stakeholders in the low-resourced settings and pointing out the ethical implications for sustainable impact. \nPhD workshopNovember 20th (morning) at Mondai | House of AI\, Next Delft at TU Delft campus \nThe PhD workshop investigates feminist approaches to generative AI by bringing together PhDs and other scholars from various fields to engage in cross- and inter-disciplinary discussions. \nParticipants will have the opportunity to share their ideas and gain valuable feedback on their projects. More info to come! \nRegister here for the PhD WorkshopLab DirectorsDr. Sara Colombo (Co-Director)\, Assistant Professor in Designing responsible AI at the Faculty of Industrial Design Engineering\, TU Delft. Dr. Colombo’s research explores innovative approaches for the ethical design of AI applications and the critical examination of their societal impact. Her work involves engaging communities in envisioning AI futures with an emphasis on inclusivity and a participatory approach. \nDr. Francisca Grommé (Co-Director)\, Assistant Professor in Digitalisation in Work and Society at the EUR department of Sociology\, and AIPact TopTalent Research fellow. As an ‘ethnographer of data and AI’ she follows these technologies across different domains of work to understand how they affect marginalized groups\, social justice\, governance arrangements and the quality of work. \nThe Feminist Generative AI Lab is an initiative of TU Delft and Erasmus University Rotterdam and is funded by Convergence. For more information on the programme or the lab please check Convergence AI\, D&D or Mondai | House of AI.
URL:https://mondai.tudelftcampus.nl/en/event/symposium-feminist-ai-shaping-ethical-futures/
LOCATION:Mondai | House of AI – Delft\, Molengraaffsingel 29\, Delft\, 2629 JD
ATTACH;FMTTYPE=image/jpeg:https://mondai.tudelftcampus.nl/wp-content/uploads/sites/7/2024/09/Feminist-AI_Pic_V2logos-scaled.jpg
ORGANIZER;CN="Mondai | House of AI":MAILTO:mondai@tudelft.nl
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=Europe/Amsterdam:20241120T100000
DTEND;TZID=Europe/Amsterdam:20241120T123000
DTSTAMP:20260421T173452
CREATED:20240930T071525Z
LAST-MODIFIED:20241111T085009Z
UID:10000202-1732096800-1732105800@mondai.tudelftcampus.nl
SUMMARY:PhD workshop Symposium - Feminist AI: Shaping Ethical Futures
DESCRIPTION:PhD WorkshopsSymposium – Feminist AI: Shaping Ethical Futures \nSave the Date! We are excited to officially launch the Feminist Generative AI Lab through the Symposium “Feminist AI: Shaping Ethical Futures” on November 19th. \nIn addition to the symposium\, we have PhD workshops on the 20th (morning) at Mondai | House of AI\, Next Delft at TU Delft campus. \nThe PhD workshop investigates feminist approaches to generative AI by bringing together PhDs and other scholars from various fields to engage in cross- and inter-disciplinary discussions. \nParticipants will have the opportunity to share their ideas and gain valuable feedback on their projects. \nThe workshops are organised by the Feminist Generative AI Lab\, Mondai | House of AI and Convergence AI\, D&D. \nImportant Note: Due to limited seating for the PhD workshop\, registration does not guarantee a spot. Participants will be selected based on their research interests\, with priority given to PhD candidates.
URL:https://mondai.tudelftcampus.nl/en/event/phd-workshop-symposium-feminist-ai-shaping-ethical-futures/
ATTACH;FMTTYPE=image/jpeg:https://mondai.tudelftcampus.nl/wp-content/uploads/sites/7/2024/09/Feminist-AI_Pic_V2logos-1-scaled.jpg
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=Europe/Amsterdam:20241126T170000
DTEND;TZID=Europe/Amsterdam:20241126T200000
DTSTAMP:20260421T173452
CREATED:20241009T142832Z
LAST-MODIFIED:20241009T143217Z
UID:10000208-1732640400-1732651200@mondai.tudelftcampus.nl
SUMMARY:NL AIC Diner Pensant - AI-hub Zuid-Holland
DESCRIPTION:The Dutch AI Coalition (NL AIC) and the AI-hub Zuid-Holland are organising the ”Diner Pensant’ at Mondai | House of AI at TU Delft. The opportunity for the makers & shapers of AI to come together!\n(This event will be held in Dutch) \nNa wereldwijde voorbeelden van discriminerende algoritmes\, waaronder ook de Nederlandse toeslagenaffaire en DUO\, is de roep om risicobeheersing wetgeving van AI gegroeid en gerealiseerd via de EU AI Act. Naast regelgeving over de impact en ethische aspecten van hoog-risico AI is er nu ook wettelijk vastgelegd dat algoritmen gevalideerd moeten worden op technisch inhoudelijke gronden. \n\nThema van de avond:\nHoe kunnen we er met het bedrijfsleven\, juristen\, wetenschappers\, beleidsmakers\, en mensen uit de praktijk voor zorgen dat AI-ontwikkeling een inhoudelijke waarborg krijgt? \n\nUit een recente review van 15 bekende AI impact assessments blijkt dat er überhaupt geen rekening wordt houden met wiskundige validatie. Daarop komt nog dat volgens een recent onderzoek van de Algemene Rekenkamer “het op valt dat de door ons onderzochte organisaties niet standaard beschikken over de expertise die nodig is voor risicobeheersing van het algoritme.”\nTot op heden is er geen invulling voor een integrale toetsing waarin het fundament van AI\, namelijk de wiskunde\, ook mee wordt genomen\, maar waar de wet nu wel om vraagt. \nMet oog op deze nieuwe wetgeving\, de groeiende roep van het bedrijfsleven en de verantwoordelijkheid van de opleiders\, vragen Marieke Kootte en Vandana Dwarka van de TU Delft in dit Diner Pensant aandacht voor de rol van wiskundige validatie als aanvulling op de bestaande ethische en impact-gedreven toetsing. Onder het genot van een goede maaltijd gaan we het gesprek aan met AI-experts en deelnemers aan het diner om vanuit verschillende expertises\, achtergronden en disciplines te verkennen hoe deze toetsen – validatie\, impact en ethiek – een integrale bescherming zouden kunnen bieden tegen discriminerende algoritmes. \nProgramma\n16.30 – 17.00 Inloop en Ontvangst\n17.00 – 17.15 Opening en Introductie\n17.15 – 18.00 Open themadiscussie: “Waarborg inhoudelijke AI-ontwikkeling”\n18.00 Netwerk Diner \nNL AIC en het Diner Pensant\nHet is voor de NL AIC belangrijk om in gesprek met de makers & shapers van AI inzichten\, uitdagingen en suggesties op te halen om die mee te kunnen nemen in gesprekken met beleidsmakers of in de vorming van departementale digitale strategieën. De 7 regionale AI Hubs in Nederland organiseren elk een Diner Pensant met partners\, ondernemers\, overheden en andere stakeholders in het regionale AI-ecosysteem. Naast inhoudelijke discussies is er zodoende natuurlijk ook gelegenheid om elkaar beter te leren kennen en samenwerkingsmogelijkheden te verkennen. \n\nThemavraag: Hoe waarborgen wij samen de inhoudelijke AI-ontwikkeling?\nHoe kunnen we er met het bedrijfsleven\, juristen\, wetenschappers\, beleidsmakers\, en mensen uit de praktijk voor zorgen dat AI-ontwikkeling een inhoudelijke waarborg krijgt? \nBij deze waarborg komen veel verschillende disciplines kijken: wiskunde\, rechten\, ethiek\, informatica\, etc. Deze disciplines weten elkaar vaak niet te vinden en de rol van wiskunde is nog ondergeschikt bij de ontwikkeling van AI. Een recente fiod vacature van de Belastingdienst vroeg bijvoorbeeld voor de ontwikkeling van hoog-risico algoritmes enkel praktijkervaring en geen kennis van statistiek\, lineaire algebra of numerieke wiskunde. De dringende vraag is\, hoe kunnen we al deze aspecten verenigen en waarborgen? Om deze\, op dit moment nog losse expertises te harmoniseren\, zouden bijvoorbeeld net als advocaten\, artsen\, tolken en accountants\, AI-engineers een beroepsopleiding moeten volgen. Hier worden niet alleen de modellen wiskundig gevalideerd en gestress-test\, maar leren ze verantwoordelijkheid te nemen door de ethische gevolgen en impact van hun handelen in de praktijk te ervaren. Graag willen we hier samen met jullie over nadenken tijdens dit Diner Pensant. We brengen verschillende disciplines en werkvelden samen. Deelvragen die we onder andere willen stellen zijn de volgende: • Hoe kijken jullie vanuit de praktijk naar de rol van opleiders ? • Welke rol zien we per sector bij het inbedden van de wiskundige waarborg? • Welke concrete resources hebben we per sector (technologie\, rechten\, governance en opleiding) nodig om deze invulling vorm te geven? • Wat kunnen we leren van andere beroepen die een grote impact hebben op burgers? • Welke praktische bezwaren zijn er tegen meer wiskunde op de AI werkvloer? • Hoe laten we een techneut praten met een jurist? \nLees meer\nRecente voorbeelden\, zoals de toeslagenaffaire en de problematiek bij DUO\, hebben laten zien dat algoritmen\, die onder AI vallen\, kunnen discrimineren. Om dit te voorkomen wordt er steeds meer risicobeheersing wetgeving opgesteld\, waaronder de Europese AI Act\, die ook voor Nederland geldt. In deze act is nu wettelijk vastgelegd dat naast de impact en ethische aspecten van AI\, hoog-risico algoritmen gevalideerd moeten worden op inhoudelijk technische gronden\, zoals nauwkeurigheid en robuustheid van het algoritme zelf. Hoewel we al meerdere impact assessments voor AI voorbij hebben zien komen\, bestaat er nog geen raamwerk voor de inhoudelijke invulling van begrippen als nauwkeurigheid en robuustheid van het algoritmen. Dit\, terwijl de wet daar nu wel om gaat vragen en de tijd dringt. Uit een recente review van 15 bekende impact assessments\, blijkt dat er überhaupt geen rekening wordt houden met wiskundige validatie. Daarop komt nog dat volgens een recent onderzoek van de Algemene Rekenkamer “het op valt dat de door ons onderzochte organisaties niet standaard beschikken over de expertise die nodig is voor risicobeheersing van het algoritme.” Ongeacht de verschillende expertises die samen komen bij AI-ontwikkeling\, moeten we voor inhoudelijke validatie van algoritmes en invulling van termen als ‘nauwkeurigheid’ en ‘robuustheid’ toch bij wiskundigen zijn. Dit\, omdat vaak enkel expliciete vormen van discriminatie\, zoals selecteren op etniciteit en religie\, herkenbaar is. Om AI-ontwikkelaars bewuster te maken van de impliciete varianten\, is kennis van de passende wiskundige toetsen en de aannames daarachter nodig. Mede hierom is in Silicon Valley recent een convenant ondertekend (MathMatters) door alle grote AI Tech giganten waarin ze oproepen tot een stevige wiskundige basis bij hun toekomstige werknemers. Deze wiskundige kennis kan een inherente bescherming tegen discriminerende algoritmes bieden\, maar wordt op dit moment in de praktijk niet of nauwelijks gevraagd aan AI-ontwikkelaars. Met oog op deze nieuwe wetgeving\, de groeiende roep van het bedrijfsleven en de verantwoordelijkheid van de opleiders\, vragen we in dit Diner Pensant aandacht voor de rol van (wiskundige) validatie als aanvulling op de bestaande ethische en impact-gedreven toetsing. Met verschillende expertises en disciplines willen we verkennen hoe deze toetsen (validatie\, impact en ethiek) een integrale bescherming zouden kunnen bieden tegen discriminerende algoritmes.
URL:https://mondai.tudelftcampus.nl/en/event/nl-aic-diner-pensant-ai-hub-zuid-holland/
LOCATION:Mondai | House of AI – Delft\, Molengraaffsingel 29\, Delft\, 2629 JD
ATTACH;FMTTYPE=image/png:https://mondai.tudelftcampus.nl/wp-content/uploads/sites/7/2024/10/Zuid-HollandAI-kleur.png
ORGANIZER;CN="Mondai | House of AI":MAILTO:mondai@tudelft.nl
END:VEVENT
END:VCALENDAR