Kunstmatige intelligentie (AI) wordt steeds vaker toegepast in uiteenlopende sectoren, waaronder de land- en tuinbouw. De Europese Commissie publiceerde in 2024 de definitieve versie van de AI-verordening, een van de eerste uitgebreide wettelijke regelingen voor AI-systemen. Deze regelgeving zal directe gevolgen hebben voor ontwikkelaars en aanbieders van AI-systemen in de agrarische sector, die zich aan de voorschriften van de verordening moeten houden. Het doel van dit afstudeeronderzoek is om inzicht te geven in de voor deze aanbieders relevante vereisten uit de AI-verordening en een be-roepsproduct te ontwikkelen dat deze informatie op een toegankelijke manier presenteert.Disclaimer:De afstudeeropdracht wordt uitgevoerd door een vierdejaarsstudent in het kader van zijn/haar afstuderen bij het Instituut voor Rechtenstudies. De student levert een juridisch beroepsproduct op en doet daartoe onderzoek. De student wordt tijdens de uitvoering van zijn/haar afstudeeropdracht begeleid door een afstudeercoach. De inspanningen van de student en de afstudeercoach zijn erop gericht om een zo goed mogelijk beroepsproduct op te leveren. Dit moet opgevat worden als een product van een (vierdejaars)student en niet van een juridische professional. Mocht ondanks de geleverde inspanningen de informatie of de inhoud van het beroepsproduct onvolledig en/of onjuist zijn, dan kunnen de Hanzehogeschool Groningen, het Instituut voor Rechtenstudies, individuele medewerkers en de student daarvoor geen aansprakelijkheid aanvaarden.
MULTIFILE
Tijdens deze interactieve presentatie wordt u aan de hand van een case study meegenomen in het juridische landschap rondom softwareontwikkeling en cybersecurity by design, gefocust op de aankomende AI-Verordening en de Cyber resilience verordening.
DOCUMENT
Wat betekent de AI act voor advocatenkantoren? Hoe kunnen zij AI verantwoord inzetten? In dit onderzoek heeft een student dat uitgewerkt in een uitgebreid beroepsproduct, bestaande uit een beslisboom om te beoordelen in welke risicocategorie een AI systeem voor de advocatuur valt en welke verplichten er per risicosysteem zijn. Disclaimer:De afstudeeropdracht wordt uitgevoerd door een vierdejaarsstudent in het kader van zijn/haar afstuderen bij het Instituut voor Rechtenstudies. De student levert een juridisch beroepsproduct op en doet daartoe onderzoek. De student wordt tijdens de uitvoering van zijn/haar afstudeeropdracht begeleid door een afstudeercoach. De inspanningen van de student en de afstudeercoach zijn erop gericht om een zo goed mogelijk beroepsproduct op te leveren. Dit moet opgevat worden als een product van een (vierdejaars)student en niet van een juridische professional. Mocht ondanks de geleverde inspanningen de informatie of de inhoud van het beroepsproduct onvolledig en/of onjuist zijn, dan kunnen de Hanzehogeschool Groningen, het Instituut voor Rechtenstudies, individuele medewerkers en de student daarvoor geen aansprakelijkheid aanvaarden.
MULTIFILE
Algorithms that significantly impact individuals and society should be transparent, yet they can often function as complex black boxes. Such high-risk AI systems necessitate explainability of their inner workings and decision-making processes, which is also crucial for fostering trust, understanding, and adoption of AI. Explainability is a major topic, not only in literature (Maslej et al. 2024) but also in AI regulation. The EU AI Act imposes explainability requirements on providers and deployers of high-risk AI systems. Additionally, it grants the right to explanation for individuals affected by high-risk AI systems. However, legal literature illustrates a lack of clarity and consensus regarding the definition of explainability and the interpretation of the relevant obligations of the AI Act (See e.g. Bibal et al. 2021; Nannini 2024; Sovrano et al. 2022). The practical implementation also presents further challenges, calling for an interdisciplinary approach (Gyevnar, Ferguson, and Schafer 2023; Nahar et al. 2024, 2110).Explainability can be examined from various perspectives. One such perspective concerns a functional approach, where explanations serve specific functions (Hacker and Passoth 2022). Looking at this functional perspective of explanations, my previous work elaborates on the central functions of explanations interwoven in the AI Act. Through comparative research on the evolution of the explainability provisions in soft and hard law on AI from the High-Level Expert Group on AI, Council of Europe, and OECD, my previous research establishes that explanations in the AI Act primarily serve to provide understanding of the inner workings and output of an AI system, to enable contestation of a decision, to increase usability, and to achieve legal compliance (Van Beem, ongoing work, paper presented at Bileta 2025 conference; submission expected June 2025).Moreover, my previous work reveals that the AI lifecycle is an important concept in AI policy and legal documents. The AI lifecycle includes phases that lead to the design, development, and deployment of an AI system (Silva and Alahakoon 2022). The AI Act requires various explanations in each phase. The provider and deployer shall observe an explainability by design and development approach throughout the entire AI lifecycle, adapting explanations as their AI evolves equally. However, the practical side of balancing between clear, meaningful, legally compliant explanations and technical explanations proves challenging.Assessing this practical side, my current research is a case study in the agricultural sector, where AI plays an increasing role and where explainability is a necessary ingredient for adoption (EPRS 2023). The case study aims to map which legal issues AI providers, deployers, and other AI experts in field crop farming encounter. Secondly, the study explores the role of explainability (and the field of eXplainable AI) in overcoming such legal challenges. The study is conducted through further doctrinal research, case law analysis, and empirical research using interviews, integrating the legal and technical perspectives. Aiming to enhance trustworthiness and adoption of AI in agriculture, this research seeks to contribute to an interdisciplinary debate regarding the practical application of the AI Act's explainability obligations.
DOCUMENT
Deze handreiking is ontwikkeld voor designers en ontwikkelaars van AI-systemen, met als doel om te zorgen dat deze systemen voldoende uitlegbaar zijn. Voldoende betekent hier dat het voldoet aan de wettelijke eisen vanuit AI Act en AVG en dat gebruikers het systeem goed kunnen gebruiken. In deze handreiking leggen we ten eerste uit wat de eisen zijn die er wettelijk gelden voor uitlegbaarheid van AI-systemen. Deze zijn afkomstig uit de AVG en de AI-Act. Vervolgens leggen we uit hoe AI gebruikt wordt in de financiële sector en werken één probleem in detail uit. Voor dit probleem laten we vervolgens zien hoe de user interface aangepast kan worden om de AI uitlegbaar te maken. Deze ontwerpen dienen als prototypische voorbeelden die aangepast kunnen worden op nieuwe problemen. Deze handreiking is gebaseerd op uitlegbaarheid van AI-systemen voor de financiële sector. De adviezen kunnen echter ook gebruikt worden in andere sectoren.
MULTIFILE
The Technical Manual for the digital evaluation tool QualiTePE supports users of the QualiTePE tool in creating, conducting and analysing evaluations to record the quality of teaching in physical education. The information on the General Data Protection Regulation (GDPR) instructs users on how to anonymise the data collection of evaluations and which legal bases apply with regard to the collection of personal data. The technical manual for the digital evaluation tool QualiTePE and the information on the General Data Protection Regulation (GDPR) are available in English, German, French, Italian, Spanish, Dutch, Swedish, Slovenian, Czech and Greek.
DOCUMENT
Dit stagenotitieblok is ontwikkeld door Kenniswerkplaats Zorgvuldig Data Delen, en is afkomstig van Hogeschool Utrecht - Juridische Zaken en Privacy Officers. Neem dit stagenotitieblok mee naar je sollicitatiegesprek of eerste stagedag. Je vindt er toelichting op: 1 Welk stagecontract? 2 Welke apps en devices mag je gebruiken? 3 Hoe ga je om met vertrouwelijke data? 4 Privacybeleid, hoe zit dat?
DOCUMENT
Staatssecretaris Van Huffelen (Digitale Zaken) wil ambtenaren verplichten een ‘mensenrechten-impact-assessment’ uit te voeren bij nieuwe én bestaande algoritmes. Een goede ontwikkeling, vinden Quirine Eijkman en collega’s van het College voor de Rechten van de Mens. Maar dan met bindende discriminatietoets.
LINK