De arbeidsmarkt is continu in ontwikkeling, leidend tot een steeds veranderende vraag naar competenties en banen. Dit vraagt naast beroepsgerichte vaardigheden en kennis over veerkracht en wendbaarheid van professionals. Van de student wordt daarom verwacht dat die zich ontwikkeld in zelfgereguleerd (ZGL) leren. ZGL gaat over regie van het eigen leerproces: studenten bepalen zelf hoe tot leerresultaten te komen, deze te evalueren en sturen het leerproces zelf bij. Voor opleidingen is het de vraag hoe ze ZGL kunnen begeleiden en bevorderen. Dit behoeft inzicht in leergedrag, patronen hierin en bewustzijn over hoe deze inzichten gebruikt kunnen worden om ZGL te ondersteunen en het leerproces te begeleiden. In dit onderzoek is geïnventariseerd of de data die studenten in de elektronische leeromgeving (ELO) achterlaten een indicatie kan geven over het leerproces en ZGL van de student. Om de ingewikkelde patronen uit de data te halen, zijn de data uit de ELO met behulp van AItechnieken geanalyseerd. Hiermee kon het leerproces van studenten in verschillende categorieën worden onderverdeeld. De categorieën geven een eerste indicatie over het ZGL van de student. Verder onderzoek is benodigd, ook om te onderzoeken wat dit betekent voor de ondersteuning van studenten in hun leerproces.
People tend to be hesitant toward algorithmic tools, and this aversion potentially affects how innovations in artificial intelligence (AI) are effectively implemented. Explanatory mechanisms for aversion are based on individual or structural issues but often lack reflection on real-world contexts. Our study addresses this gap through a mixed-method approach, analyzing seven cases of AI deployment and their public reception on social media and in news articles. Using the Contextual Integrity framework, we argue that most often it is not the AI technology that is perceived as problematic, but that processes related to transparency, consent, and lack of influence by individuals raise aversion. Future research into aversion should acknowledge that technologies cannot be extricated from their contexts if they aim to understand public perceptions of AI innovation.
LINK
Artificial Intelligence (AI) is increasingly shaping the way we work, live, and interact, leading to significant developments across various sectors of industry, including media, finance, business services, retail and education. In recent years, numerous high-level principles and guidelines for ‘responsible’ or ‘ethical’ AI have been formulated. However, these theoretical efforts often fall short when it comes to addressing the practical challenges of implementing AI in real-world contexts: Responsible Applied AI. The one-day workshop on Responsible Applied Artificial InTelligence (RAAIT) at HHAI 2024: Hybrid Human AI Systems for the Social Good in Malmö, Sweden, brought together researchers studying various dimensions of Responsible AI in practice.This was the second RAAIT workshop, following the first edition at the 2023 European Conference on Artificial Intelligence (ECAI) in Krakow, Poland.
MULTIFILE
Electrohydrodynamic Atomization (EHDA), also known as Electrospray (ES), is a technology which uses strong electric fields to manipulate liquid atomization. Among many other areas, electrospray is currently used as an important tool for biomedical applications (droplet encapsulation), water technology (thermal desalination and metal recovery) and material sciences (nanofibers and nano spheres fabrication, metal recovery, selective membranes and batteries). A complete review about the particularities of this technology and its applications was recently published in a special edition of the Journal of Aerosol Sciences [1]. Even though EHDA is already applied in many different industrial processes, there are not many controlling tools commercially available which can be used to remotely operate the system as well as identify some spray characteristics, e.g. droplet size, operational mode, droplet production ratio. The AECTion project proposes the development of an innovative controlling system based on the electrospray current, signal processing & control and artificial intelligence to build a non-visual tool to control and characterize EHDA processes.
Professionals worden steeds vaker ondersteund door AI (Artificial Intelligence, kunstmatige intelligentie). Maar hoe ervaren professionals dat? Welke vorm van ondersteuning versterkt hun professie en wat willen ze vooral niet? In dit project onderzoeken we hoe verschillende rollen voor AI (besluitvormer, adviseur of kennisbron) worden ervaren door aankomend professionals in de preventieve zorg. Doel Krachtige samenwerking professional en AI Met het project willen we inzicht krijgen in welke invloed verschillende vormen van samenwerking met AI heeft op waarden als autonomie en vertrouwen bij professionals. Deze inzichten willen we vertalen naar vormen van samenwerking waarbij de kracht van zowel professional als AI optimaal tot uiting komt. Resultaten Het beoogde resultaat van het project is een set aan concrete richtlijnen voor het context-afhankelijk ontwerpen van mens-AI samenwerkingen die recht doen aan persoonlijke waarden. Looptijd 01 april 2021 - 31 maart 2022 Aanpak We onderzoeken verschillende rollen van AI door middel van Wizard of Oz experimenten. Hierin voeren studenten paramedische studies een preventieve gezondheidscheck uit met behulp van een gesimuleerd AI algoritme. De resulterende richtlijnen toetsen we in focusgroepen met zorg professionals. Relevantie voor beroepspraktijk Het gebruik van AI heeft grote potentie voor de beroepspraktijk. Er zijn echter ook zorgen over de impact van AI op de maatschappij. Met dit project dragen we bij aan een ethisch verantwoorde inzet van AI. Cofinanciering Dit project wordt uitgevoerd als onderdeel van het programma R-DAISES dat wordt uitgevoerd in het kader van NWA route 25 – verantwoorde waardecreatie met big data en is gefinancierd door NWO (Nederlandse Organisatie voor Wetenschappelijk Onderzoek)
Developing a framework that integrates Advanced Language Models into the qualitative research process.Qualitative research, vital for understanding complex phenomena, is often limited by labour-intensive data collection, transcription, and analysis processes. This hinders scalability, accessibility, and efficiency in both academic and industry contexts. As a result, insights are often delayed or incomplete, impacting decision-making, policy development, and innovation. The lack of tools to enhance accuracy and reduce human error exacerbates these challenges, particularly for projects requiring large datasets or quick iterations. Addressing these inefficiencies through AI-driven solutions like AIDA can empower researchers, enhance outcomes, and make qualitative research more inclusive, impactful, and efficient.The AIDA project enhances qualitative research by integrating AI technologies to streamline transcription, coding, and analysis processes. This innovation enables researchers to analyse larger datasets with greater efficiency and accuracy, providing faster and more comprehensive insights. By reducing manual effort and human error, AIDA empowers organisations to make informed decisions and implement evidence-based policies more effectively. Its scalability supports diverse societal and industry applications, from healthcare to market research, fostering innovation and addressing complex challenges. Ultimately, AIDA contributes to improving research quality, accessibility, and societal relevance, driving advancements across multiple sectors.