Algorithms that significantly impact individuals and society should be transparent, yet they can often function as complex black boxes. Such high-risk AI systems necessitate explainability of their inner workings and decision-making processes, which is also crucial for fostering trust, understanding, and adoption of AI. Explainability is a major topic, not only in literature (Maslej et al. 2024) but also in AI regulation. The EU AI Act imposes explainability requirements on providers and deployers of high-risk AI systems. Additionally, it grants the right to explanation for individuals affected by high-risk AI systems. However, legal literature illustrates a lack of clarity and consensus regarding the definition of explainability and the interpretation of the relevant obligations of the AI Act (See e.g. Bibal et al. 2021; Nannini 2024; Sovrano et al. 2022). The practical implementation also presents further challenges, calling for an interdisciplinary approach (Gyevnar, Ferguson, and Schafer 2023; Nahar et al. 2024, 2110).Explainability can be examined from various perspectives. One such perspective concerns a functional approach, where explanations serve specific functions (Hacker and Passoth 2022). Looking at this functional perspective of explanations, my previous work elaborates on the central functions of explanations interwoven in the AI Act. Through comparative research on the evolution of the explainability provisions in soft and hard law on AI from the High-Level Expert Group on AI, Council of Europe, and OECD, my previous research establishes that explanations in the AI Act primarily serve to provide understanding of the inner workings and output of an AI system, to enable contestation of a decision, to increase usability, and to achieve legal compliance (Van Beem, ongoing work, paper presented at Bileta 2025 conference; submission expected June 2025).Moreover, my previous work reveals that the AI lifecycle is an important concept in AI policy and legal documents. The AI lifecycle includes phases that lead to the design, development, and deployment of an AI system (Silva and Alahakoon 2022). The AI Act requires various explanations in each phase. The provider and deployer shall observe an explainability by design and development approach throughout the entire AI lifecycle, adapting explanations as their AI evolves equally. However, the practical side of balancing between clear, meaningful, legally compliant explanations and technical explanations proves challenging.Assessing this practical side, my current research is a case study in the agricultural sector, where AI plays an increasing role and where explainability is a necessary ingredient for adoption (EPRS 2023). The case study aims to map which legal issues AI providers, deployers, and other AI experts in field crop farming encounter. Secondly, the study explores the role of explainability (and the field of eXplainable AI) in overcoming such legal challenges. The study is conducted through further doctrinal research, case law analysis, and empirical research using interviews, integrating the legal and technical perspectives. Aiming to enhance trustworthiness and adoption of AI in agriculture, this research seeks to contribute to an interdisciplinary debate regarding the practical application of the AI Act's explainability obligations.
DOCUMENT
Deze handreiking is ontwikkeld voor designers en ontwikkelaars van AI-systemen, met als doel om te zorgen dat deze systemen voldoende uitlegbaar zijn. Voldoende betekent hier dat het voldoet aan de wettelijke eisen vanuit AI Act en AVG en dat gebruikers het systeem goed kunnen gebruiken. In deze handreiking leggen we ten eerste uit wat de eisen zijn die er wettelijk gelden voor uitlegbaarheid van AI-systemen. Deze zijn afkomstig uit de AVG en de AI-Act. Vervolgens leggen we uit hoe AI gebruikt wordt in de financiële sector en werken één probleem in detail uit. Voor dit probleem laten we vervolgens zien hoe de user interface aangepast kan worden om de AI uitlegbaar te maken. Deze ontwerpen dienen als prototypische voorbeelden die aangepast kunnen worden op nieuwe problemen. Deze handreiking is gebaseerd op uitlegbaarheid van AI-systemen voor de financiële sector. De adviezen kunnen echter ook gebruikt worden in andere sectoren.
MULTIFILE
De opkomst van Chat GPT laat zien hoe AI ingrijpt in ons dagelijks leven en het onderwijs. Maar AI is meer dan Chat GPT: van zoekmachines tot de gezichtsherkenning in je telefoon: data en algoritmes veranderen de levens van onze studenten en hun toekomstige werkveld. Wat betekent dit voor de opleidingen in het HBO waar voor wij werken? Voor de inspiratie-sessie De maatschappelijke impact van AI tijdens het HU Onderwijsfestival 2023 hebben wij onze collega’s uitgenodigd om samen met ons mee te denken over de recente AI-ontwikkelingen. We keken niet alleen naar de technologie, maar juist ook naar de maatschappelijke impact en wat de kansen en bedreigingen van AI zijn voor een open, rechtvaardige en duurzame samenleving. Het gesprek voerde we met onze collega’s (zowel docenten als medewerkers van de diensten) aan de hand van drie casussen met. De verzamelde resultaten en inzichten van deze gesprekken zijn samengebracht op een speciaal ontwikkelde poster voor de workshop (zie figuur 1). We hebben deze inzichten gebundeld en hieronder zijn ze te lezen.
DOCUMENT
Kunstmatige intelligentie (AI) wordt steeds vaker toegepast in uiteenlopende sectoren, waaronder de land- en tuinbouw. De Europese Commissie publiceerde in 2024 de definitieve versie van de AI-verordening, een van de eerste uitgebreide wettelijke regelingen voor AI-systemen. Deze regelgeving zal directe gevolgen hebben voor ontwikkelaars en aanbieders van AI-systemen in de agrarische sector, die zich aan de voorschriften van de verordening moeten houden. Het doel van dit afstudeeronderzoek is om inzicht te geven in de voor deze aanbieders relevante vereisten uit de AI-verordening en een be-roepsproduct te ontwikkelen dat deze informatie op een toegankelijke manier presenteert.Disclaimer:De afstudeeropdracht wordt uitgevoerd door een vierdejaarsstudent in het kader van zijn/haar afstuderen bij het Instituut voor Rechtenstudies. De student levert een juridisch beroepsproduct op en doet daartoe onderzoek. De student wordt tijdens de uitvoering van zijn/haar afstudeeropdracht begeleid door een afstudeercoach. De inspanningen van de student en de afstudeercoach zijn erop gericht om een zo goed mogelijk beroepsproduct op te leveren. Dit moet opgevat worden als een product van een (vierdejaars)student en niet van een juridische professional. Mocht ondanks de geleverde inspanningen de informatie of de inhoud van het beroepsproduct onvolledig en/of onjuist zijn, dan kunnen de Hanzehogeschool Groningen, het Instituut voor Rechtenstudies, individuele medewerkers en de student daarvoor geen aansprakelijkheid aanvaarden.
MULTIFILE
Het is inmiddels breed geaccepteerd dat beslissingen die door AI-systemen worden genomen, uitlegbaar moeten zijn aan hun gebruikers. Toch blijft het in de praktijk vaak onduidelijk hoe die uitlegbaarheid concreet vorm moet krijgen. Vooral voor niet-technische gebruikers, zoals scha-debeoordelaars bij verzekeringsmaatschappijen, is het essentieel dat zij de beslissingen van een AI-systeem goed kunnen begrijpen én kunnen uitleggen aan klanten. Denk bijvoorbeeld aan het toelichten van een afgewezen schadeclaim of leningaanvraag. Hoewel het belang van verklaarbare AI algemeen wordt erkend, ontbreekt het vaak aan praktische handvatten om dit te realiseren. Daarom hebben we in deze handreiking inzichten samengebracht uit twee use cases binnen de financiële sector én uit een uitgebreide literatuurstudie. Hieruit zijn 30 aspecten van betekenisvolle uitleg van AI voortgekomen. Op basis van deze aspecten is een checklist ontwikkeld die AI-ontwikkelaars helpt om hun systemen beter uitlegbaar te maken. De checklist biedt niet alleen inzicht in hoeverre een AI-toe-passing op dit moment begrijpelijk is voor eindgebruikers, maar maakt ook duidelijk waar nog verbeterpunten liggen.
DOCUMENT
In het boek komen 40 experts aan het woord, die in duidelijke taal uitleggen wat AI is, en welke vragen, uitdagingen en kansen de technologie met zich meebrengt.
DOCUMENT
De ontwikkelingen rondom toekomstige slimme steden worden in de lokale en regionale media maar mondjesmaat belicht. Als er over digitale ontwikkelingen geschreven wordt is dat met name positief gekleurd, zo blijkt althans uit het onderzoek Slimme Luis in een Digitale Pels dat het lectoraat Fontys Journalistiek & Verantwoorde Innovatie en het Fontys ICT lectoraat AI & Big Data afgelopen jaar uitvoerden met steun van het onderzoeksprogramma TEC-for Society (Fontys).
DOCUMENT
Samen wonen, samen leven is het resultaat van een unieke samenwerking tussen BeBright, Rabobank, Hogeschool Utrecht en het Kenniscentrum Sociale Innovatie. Met steun van alle partijen en het ministerie VWS is onderzocht welke praktische inzichten naar voren komen na onderzoek van een selectie van succesvolle woonzorggemeenschappen. Wat kunnen geïnteresseerde partijen zich ter harte nemen wanneer zij een vitale, inclusieve en vooral duurzame woonzorggemeenschap willen initiëren? Voor ontwikkelaars, zorginstellingen, woningcorporaties, gemeentes, vrijwilligersorganisaties, burgers, bewoners en andere geïnteresseerden biedt dit boek een schat aan inzicht en wenken voor versnelling en opschalen. Voor iedereen die een zorgzame samenleving dichterbij wil brengen.
DOCUMENT
1e alinea column: Organisaties bestaan in feite omdat ze goedkoper dan de markt samenwerking organiseren. Dit eenvoudige gegeven ligt onder vrijwel alle analyses van de impact van Internet: Internet verlaagt de externe markttransactiekosten. Interne coördinatiekosten van de organisatie moeten dus naar beneden op straffe van verdampen van de organisatie. Dat dat proces in volle gang is getuigen de vele kostenbesparingsprogramma's en reorganisaties bij (grote) ondernemingen. Die zullen ook niet meer ophouden, voorspel ik je en uiteindelijk zullen de meeste corporates hele andere organisatie vormen krijgen, gebaseerd op P2P crowdsouring en zelfsturing. Hier trend 5 van 6.
LINK
Litska Strikwerda en Anke van Gorp (beiden hoofddocent en onderzoeker aan de Hogeschool Utrecht) richten zich op de dilemma's bij het gebruik van OxRec, een digitaal instrument dat een inschatting maakt van recidiverisico's en dat wordt gebruikt door medewerkers van de reclassering.
DOCUMENT