Deze handreiking is ontwikkeld voor designers en ontwikkelaars van AI-systemen, met als doel om te zorgen dat deze systemen voldoende uitlegbaar zijn. Voldoende betekent hier dat het voldoet aan de wettelijke eisen vanuit AI Act en AVG en dat gebruikers het systeem goed kunnen gebruiken. In deze handreiking leggen we ten eerste uit wat de eisen zijn die er wettelijk gelden voor uitlegbaarheid van AI-systemen. Deze zijn afkomstig uit de AVG en de AI-Act. Vervolgens leggen we uit hoe AI gebruikt wordt in de financiële sector en werken één probleem in detail uit. Voor dit probleem laten we vervolgens zien hoe de user interface aangepast kan worden om de AI uitlegbaar te maken. Deze ontwerpen dienen als prototypische voorbeelden die aangepast kunnen worden op nieuwe problemen. Deze handreiking is gebaseerd op uitlegbaarheid van AI-systemen voor de financiële sector. De adviezen kunnen echter ook gebruikt worden in andere sectoren.
MULTIFILE
Algorithms that significantly impact individuals and society should be transparent, yet they can often function as complex black boxes. Such high-risk AI systems necessitate explainability of their inner workings and decision-making processes, which is also crucial for fostering trust, understanding, and adoption of AI. Explainability is a major topic, not only in literature (Maslej et al. 2024) but also in AI regulation. The EU AI Act imposes explainability requirements on providers and deployers of high-risk AI systems. Additionally, it grants the right to explanation for individuals affected by high-risk AI systems. However, legal literature illustrates a lack of clarity and consensus regarding the definition of explainability and the interpretation of the relevant obligations of the AI Act (See e.g. Bibal et al. 2021; Nannini 2024; Sovrano et al. 2022). The practical implementation also presents further challenges, calling for an interdisciplinary approach (Gyevnar, Ferguson, and Schafer 2023; Nahar et al. 2024, 2110).Explainability can be examined from various perspectives. One such perspective concerns a functional approach, where explanations serve specific functions (Hacker and Passoth 2022). Looking at this functional perspective of explanations, my previous work elaborates on the central functions of explanations interwoven in the AI Act. Through comparative research on the evolution of the explainability provisions in soft and hard law on AI from the High-Level Expert Group on AI, Council of Europe, and OECD, my previous research establishes that explanations in the AI Act primarily serve to provide understanding of the inner workings and output of an AI system, to enable contestation of a decision, to increase usability, and to achieve legal compliance (Van Beem, ongoing work, paper presented at Bileta 2025 conference; submission expected June 2025).Moreover, my previous work reveals that the AI lifecycle is an important concept in AI policy and legal documents. The AI lifecycle includes phases that lead to the design, development, and deployment of an AI system (Silva and Alahakoon 2022). The AI Act requires various explanations in each phase. The provider and deployer shall observe an explainability by design and development approach throughout the entire AI lifecycle, adapting explanations as their AI evolves equally. However, the practical side of balancing between clear, meaningful, legally compliant explanations and technical explanations proves challenging.Assessing this practical side, my current research is a case study in the agricultural sector, where AI plays an increasing role and where explainability is a necessary ingredient for adoption (EPRS 2023). The case study aims to map which legal issues AI providers, deployers, and other AI experts in field crop farming encounter. Secondly, the study explores the role of explainability (and the field of eXplainable AI) in overcoming such legal challenges. The study is conducted through further doctrinal research, case law analysis, and empirical research using interviews, integrating the legal and technical perspectives. Aiming to enhance trustworthiness and adoption of AI in agriculture, this research seeks to contribute to an interdisciplinary debate regarding the practical application of the AI Act's explainability obligations.
DOCUMENT
Vandaag de dag loopt de discussie over AI hoog op: wat betekent AI voor verschillende beroepen? Welke competenties zijn straks wellicht niet meer relevant en welke juist des te meer? En wat betekent AI voor het onderwijs? Hoog tijd dus om in het onderwijs aandacht te besteden aan het versterken van AI-geletterdheid. Ofwel de competenties die nodig zijn om AI-technologieën kritisch te kunnen evalueren, er effectief mee te kunnen communiceren en mee samen te werken, zowel thuis als op de werkplek, zodat studenten klaar zijn voor een wereld vol AI Antwoord op deze en andere vragen vind je in deze publicatie van het lectoraat Teaching, Learning & Technology zodat je in zeven minuten weer bent bijgepraat over AI geletterdheid. # AI-geletterdheid #teachinglearningandtechnology #inholland
DOCUMENT
Het is inmiddels breed geaccepteerd dat beslissingen die door AI-systemen worden genomen, uitlegbaar moeten zijn aan hun gebruikers. Toch blijft het in de praktijk vaak onduidelijk hoe die uitlegbaarheid concreet vorm moet krijgen. Vooral voor niet-technische gebruikers, zoals scha-debeoordelaars bij verzekeringsmaatschappijen, is het essentieel dat zij de beslissingen van een AI-systeem goed kunnen begrijpen én kunnen uitleggen aan klanten. Denk bijvoorbeeld aan het toelichten van een afgewezen schadeclaim of leningaanvraag. Hoewel het belang van verklaarbare AI algemeen wordt erkend, ontbreekt het vaak aan praktische handvatten om dit te realiseren. Daarom hebben we in deze handreiking inzichten samengebracht uit twee use cases binnen de financiële sector én uit een uitgebreide literatuurstudie. Hieruit zijn 30 aspecten van betekenisvolle uitleg van AI voortgekomen. Op basis van deze aspecten is een checklist ontwikkeld die AI-ontwikkelaars helpt om hun systemen beter uitlegbaar te maken. De checklist biedt niet alleen inzicht in hoeverre een AI-toe-passing op dit moment begrijpelijk is voor eindgebruikers, maar maakt ook duidelijk waar nog verbeterpunten liggen.
DOCUMENT
De opkomst van Chat GPT laat zien hoe AI ingrijpt in ons dagelijks leven en het onderwijs. Maar AI is meer dan Chat GPT: van zoekmachines tot de gezichtsherkenning in je telefoon: data en algoritmes veranderen de levens van onze studenten en hun toekomstige werkveld. Wat betekent dit voor de opleidingen in het HBO waar voor wij werken? Voor de inspiratie-sessie De maatschappelijke impact van AI tijdens het HU Onderwijsfestival 2023 hebben wij onze collega’s uitgenodigd om samen met ons mee te denken over de recente AI-ontwikkelingen. We keken niet alleen naar de technologie, maar juist ook naar de maatschappelijke impact en wat de kansen en bedreigingen van AI zijn voor een open, rechtvaardige en duurzame samenleving. Het gesprek voerde we met onze collega’s (zowel docenten als medewerkers van de diensten) aan de hand van drie casussen met. De verzamelde resultaten en inzichten van deze gesprekken zijn samengebracht op een speciaal ontwikkelde poster voor de workshop (zie figuur 1). We hebben deze inzichten gebundeld en hieronder zijn ze te lezen.
DOCUMENT
Artificial intelligence (AI) is a technology which is increasingly being utilised in society and the economy worldwide, but there is much disquiet over problematic and dangerous implementations of AI, or indeed even AI itself deciding to do dangerous and problematic actions. These developments have led to concerns about whether and how AI systems currently adhere to and will adhere to ethical standards, stimulating a global and multistakeholder conversation on AI ethics and the production of AI governance initiatives. Such developments form the basis for this chapter, where we give an insight into what is happening in Australia, China, the European Union, India and the United States. We commence with some background to the AI ethics and regulation debates, before proceedings to give an overview of what is happening in different countries and regions, namely Australia, China, the European Union (including national level activities in Germany), India and the United States. We provide an analysis of these country profiles, with particular emphasis on the relationship between ethics and law in each location. Overall we find that AI governance and ethics initiatives are most developed in China and the European Union, but the United States has been catching up in the last eighteen months.
DOCUMENT
Dit artikel legt het belang uit van goede uitleg van kunstmatige intelligentie. Rechten van individuen zullen door ontwerpers van systemen van te voren moeten worden ingebouwd. AI wordt beschouwd als een 'sleuteltechnologie' die de wereld net zo ingrijpend gaat veranderen als de industriele revolutie. Binnen de stroming XAI wordt onderzoek gedaan naar interpretatie van werking van AI.
DOCUMENT
Dit essay geeft een systeemvisie op het ontwikkelen van embedded software voor slimme systemen: (mobiele) robots en sensornetwerken.
DOCUMENT
An extensive inventory of 137 Dutch SMEs regarding the most important considerations regarding the use of emerging digital technologies shows that the selection process is difficult. En trepreneurs wonder which AI application suits them best and what the added (innovative) value is and how they can implement it. This outcome is a clear signal from SMEs to researchers in knowledge institutions and to developers of AI services and applications: Help! Which AI should I choose? With a consortium of students, researchers, and SMEs, we are creating an approach that will help SMEs make the most suitable AI choice. The project develops a data-driven advisory tool that helps SMEs choose, develop, implement and use AI applications focusing on four highly ranked topics.
LINK
Kunstmatige intelligentie AI biedt de journalistiek veel mogelijkheden, maar er zijn juist richtlijnen nodig.
LINK