Generatieve AI biedt inmiddels meer dan alleen gemak of efficiëntie: ze kan ook een betekenisvolle rol spelen in het leerproces zelf. Om docenten te helpen zich hierin te oriënteren, schreven we een korte publicatie in onze serie In 7 minuten bijgepraat over…In deze editie: Leren met conversational AI – AI als persona. Over wat er gebeurt wanneer studenten echt in gesprek gaan met AI, welke onderwijskundige theorie daaraan ten grondslag ligt, en wat dit vraagt van docenten en opleidingen.
DOCUMENT
Artikel in Memorad: Kunstmatige Intelligentie (Artificial Intelligence of kortweg AI) heeft de laatste jaren de radiologiewereld ingrijpend veranderd. Ook het werk van Medische Beeldvormings - en Bestralingsdeskundigen (MBB'ers) verandert hierdoor sterk.
MULTIFILE
poster voor de EuSoMII Annual Meeting in Pisa, Italië in oktober 2023. PURPOSE & LEARNING OBJECTIVE Artificial Intelligence (AI) technologies are gaining popularity for their ability to autonomously perform tasks and mimic human reasoning [1, 2]. Especially within the medical industry, the implementation of AI solutions has seen an increasing pace [3]. However, the field of radiology is not yet transformed with the promised value of AI, as knowledge on the effective use and implementation of AI is falling behind due to a number of causes: 1) Reactive/passive modes of learning are dominant 2) Existing developments are fragmented 3) Lack of expertise and differing perspectives 4) Lack of effective learning space Learning communities can help overcome these problems and address the complexities that come with human-technology configurations [4]. As the impact of a technology is dependent on its social management and implementation processes [5], our research question then becomes: How do we design, configure, and manage a Learning Community to maximize the impact of AI solutions in medicine?
DOCUMENT
Vandaag de dag loopt de discussie over AI hoog op: wat betekent AI voor verschillende beroepen? Welke competenties zijn straks wellicht niet meer relevant en welke juist des te meer? En wat betekent AI voor het onderwijs? Hoog tijd dus om in het onderwijs aandacht te besteden aan het versterken van AI-geletterdheid. Ofwel de competenties die nodig zijn om AI-technologieën kritisch te kunnen evalueren, er effectief mee te kunnen communiceren en mee samen te werken, zowel thuis als op de werkplek, zodat studenten klaar zijn voor een wereld vol AI Antwoord op deze en andere vragen vind je in deze publicatie van het lectoraat Teaching, Learning & Technology zodat je in zeven minuten weer bent bijgepraat over AI geletterdheid. # AI-geletterdheid #teachinglearningandtechnology #inholland
DOCUMENT
In de afgelopen jaren spelen toepassingen van kunstmatige intelligentie (artificiële intelligentie, AI) een steeds prominentere rol bij werk, er wordt zelfs gesproken dat AI menselijke arbeidstaken geheel kan overnemen. De bestaande overzichten van gebruikte AI-tools zijn vaak ingedeeld in categorieën van AI-technologie, de techniek die in het AI-systeem zit. Echter om de AI-impact op de werkvloer te kunnen duiden is ander taalgebruik nodig, dat uitgaat van de werktaak en niet van de AI-techniek. In dit artikel wordt een methodiek uitgewerkt om de rol van AI te duiden, een AI-impactscan in de taal van werktaken, samen met de professionals die deze werktaken (gaan) uitvoeren. De methodiek bestaat uit drie onderdelen: inspiratie, co-creatie om voorbeelden te vinden en impact assessment. Dit resulteert in een overzicht van AI-toepassingen in een specifieke sector of bedrijf. Deze voorbeelden worden ook ingedeeld in toepassingen die al gemeengoed zijn, toepassingen waarmee wordt geëxperimenteerd of toepassingen die in de toekomst van waarde zouden kunnen zijn. Ook het niveau van de impact (hoog, middel, laag) op de werktaak wordt bepaald. Met dit overzicht kan een organisatie aan de slag om met AI-tools een verantwoorde meerwaarde te leveren aan het bedrijfsproces. Door de impactscan met de werknemers uit te voeren, ontstaat daarbij een bewustzijn over wat AI kan bieden in hun eigen takenpakket en het bedrijfsproces. Zo worden AI-systemen realistischer en beter begrepen op de meerwaarde en de beperkingen.
DOCUMENT
Er is weinig aandacht voor het precies definiëren van kunstmatige intelligentie, ook wel artificiële intelligentie (AI). Door het bestaan van verschillende interpretaties en definities van AI is niet helemaal duidelijk wat een AI nu wel of niet kan. Met het woord intelligentie in de naam, en de indrukwekkende nieuwe systemen zoals ChatGPT die in 2022 in de markt kwam, ontstaat het beeld dat AI menselijke eigenschappen heeft. Het gevolg is dat AI wordt gebruikt als co-pilot, als digitaal vriendje of zelfs als alwetende. De mens of de AI, wie bepaalt nu eigenlijk? Of is AI als een collega met wie je goed kunt samenwerken? Tijd om nog eens goed te beschrijven wat AI is, hoe AI wordt ingezet en wat nodig is om AI een meerwaarde te geven en verantwoord te maken.
DOCUMENT
Algorithms that significantly impact individuals and society should be transparent, yet they can often function as complex black boxes. Such high-risk AI systems necessitate explainability of their inner workings and decision-making processes, which is also crucial for fostering trust, understanding, and adoption of AI. Explainability is a major topic, not only in literature (Maslej et al. 2024) but also in AI regulation. The EU AI Act imposes explainability requirements on providers and deployers of high-risk AI systems. Additionally, it grants the right to explanation for individuals affected by high-risk AI systems. However, legal literature illustrates a lack of clarity and consensus regarding the definition of explainability and the interpretation of the relevant obligations of the AI Act (See e.g. Bibal et al. 2021; Nannini 2024; Sovrano et al. 2022). The practical implementation also presents further challenges, calling for an interdisciplinary approach (Gyevnar, Ferguson, and Schafer 2023; Nahar et al. 2024, 2110).Explainability can be examined from various perspectives. One such perspective concerns a functional approach, where explanations serve specific functions (Hacker and Passoth 2022). Looking at this functional perspective of explanations, my previous work elaborates on the central functions of explanations interwoven in the AI Act. Through comparative research on the evolution of the explainability provisions in soft and hard law on AI from the High-Level Expert Group on AI, Council of Europe, and OECD, my previous research establishes that explanations in the AI Act primarily serve to provide understanding of the inner workings and output of an AI system, to enable contestation of a decision, to increase usability, and to achieve legal compliance (Van Beem, ongoing work, paper presented at Bileta 2025 conference; submission expected June 2025).Moreover, my previous work reveals that the AI lifecycle is an important concept in AI policy and legal documents. The AI lifecycle includes phases that lead to the design, development, and deployment of an AI system (Silva and Alahakoon 2022). The AI Act requires various explanations in each phase. The provider and deployer shall observe an explainability by design and development approach throughout the entire AI lifecycle, adapting explanations as their AI evolves equally. However, the practical side of balancing between clear, meaningful, legally compliant explanations and technical explanations proves challenging.Assessing this practical side, my current research is a case study in the agricultural sector, where AI plays an increasing role and where explainability is a necessary ingredient for adoption (EPRS 2023). The case study aims to map which legal issues AI providers, deployers, and other AI experts in field crop farming encounter. Secondly, the study explores the role of explainability (and the field of eXplainable AI) in overcoming such legal challenges. The study is conducted through further doctrinal research, case law analysis, and empirical research using interviews, integrating the legal and technical perspectives. Aiming to enhance trustworthiness and adoption of AI in agriculture, this research seeks to contribute to an interdisciplinary debate regarding the practical application of the AI Act's explainability obligations.
DOCUMENT
Het is alom bekend dat de technologie de zorg steeds meer inhaalt en dwingt tot innoveren. Dankzij slimme technologieën kunnen mensen langer thuis blijven wonen. Efficiëntieslagen maken het makkelijker om nauwkeurig te werken. In de radiologie levert artificial intelligence (AI, kunstmatige intelligentie) daaraan een grote bijdrage.
DOCUMENT
In deze keynote verken ik de balans tussen menselijke expertise en AI: leidt AI tot cognitieve luiheid? En wat zegt de wetenschap hierover? Hoe zet je AI in zonder je vakmanschap te verliezen? Wat gebeurt er als je te veel uit handen geeft aan tools? En wanneer gebruik je technologie juist om beter te worden in je werk?
YOUTUBE
De opkomst van Chat GPT laat zien hoe AI ingrijpt in ons dagelijks leven en het onderwijs. Maar AI is meer dan Chat GPT: van zoekmachines tot de gezichtsherkenning in je telefoon: data en algoritmes veranderen de levens van onze studenten en hun toekomstige werkveld. Wat betekent dit voor de opleidingen in het HBO waar voor wij werken? Voor de inspiratie-sessie De maatschappelijke impact van AI tijdens het HU Onderwijsfestival 2023 hebben wij onze collega’s uitgenodigd om samen met ons mee te denken over de recente AI-ontwikkelingen. We keken niet alleen naar de technologie, maar juist ook naar de maatschappelijke impact en wat de kansen en bedreigingen van AI zijn voor een open, rechtvaardige en duurzame samenleving. Het gesprek voerde we met onze collega’s (zowel docenten als medewerkers van de diensten) aan de hand van drie casussen met. De verzamelde resultaten en inzichten van deze gesprekken zijn samengebracht op een speciaal ontwikkelde poster voor de workshop (zie figuur 1). We hebben deze inzichten gebundeld en hieronder zijn ze te lezen.
DOCUMENT