Information about a research study on how data science and artificial intelligence can contribute to modern education aimed at identifying and developing talents of students. De presentatie is gepubliceerd onder de titel: Future skills : and whre to find them?
The way that innovation is currently done requires a new research methodology that enables co-creation and frequent, iterative evaluation in realworld settings. This paper describes the employment of the living lab methodology that corresponds to this need. Particularly, this paper presents the way that the Amsterdam University of Applies Sciences (HvA) incorporates living labs in its educational program with a particular focus on ambient intelligence. A number of examples are given to illustrate its place in the university’s curriculum. Drawing on from this, problems and solutions are highlighted in a ‘lessons learned’ section.
With artificial intelligence (AI) systems entering our working and leisure environments with increasing adaptation and learning capabilities, new opportunities arise for developing hybrid (human-AI) intelligence (HI) systems, comprising new ways of collaboration. However, there is not yet a structured way of specifying design solutions of collaboration for hybrid intelligence (HI) systems and there is a lack of best practices shared across application domains. We address this gap by investigating the generalization of specific design solutions into design patterns that can be shared and applied in different contexts. We present a human-centered bottom-up approach for the specification of design solutions and their abstraction into team design patterns. We apply the proposed approach for 4 concrete HI use cases and show the successful extraction of team design patterns that are generalizable, providing re-usable design components across various domains. This work advances previous research on team design patterns and designing applications of HI systems.
MULTIFILE
De rol van digital technologies in business en society neemt sprongsgewijs toe. Het online ontwerpen en samenstellen van producten naar eigen behoefte neemt daarbij ook steeds nieuwe vormen aan. Naar verwachting is in 2030 klant-gestuurd maatwerk in een massaproductie-omgeving de standaard. De productspecificatie wordt automatisch verwerkt tot machinebesturingsinformatie, logistieke formats en productfolders. Van ontwerp tot assemblage en productie verloopt dit in hoge mate autonoom, gebaseerd op just-in-time-in-place principes, geborgd op basis van intrinsieke systeemkwaliteit, gevoed vanuit AI/ML-technieken en gestuurd vanuit een managementdashboard met onderliggend Enterprise Resource Planning. Deze transitie, o.a. onder de noemer ‘smart industry’, vindt wereldwijd plaats, en is een extra stimulans voor werknemers om zich te blijven bijscholen. Productie wordt steeds meer datagestuurd. Het gaat daarbij om high-mix-low-volume producten, met bijhorende productieprocessen, -aansturing en -logistiek. Deze vorm van ondernemen vergt gedegen kennis over realtime verkrijgen, verwerken, toepassen en analyseren van data. En dat vraagt om gevoelige sensoren, analyse software, robuuste processing-informatica, slimme algoritmes, handige robots en hightech mechatronica. Daar is voor het gemiddelde mkb nog een lange weg te gaan. In de Researchgroup for Digital Driven Manufacturing gaan Saxion (S) en Windesheim (W), in nauwe samenwerking met zes kernpartners, ondersteund door TechForFuture - Centre of Expertise HTSM Oost, ondernemers helpen deze uitdaging te volbrengen. We bundelen hierin kennis op gebieden van robotisering, industriële automatisering & artificial intelligence. We ontwikkelen kennis in de lectoraten Industriële Automatisering & Robotica (W), Ambient Intelligence (S) en Mechatronica (S). We versterken die kennis door cross-overs op de grensvlakken van sleuteltechnologie en praktijk te creëren. We implementeren die kennis door betrokkenheid van de Fieldlabs van T-Valley, The Garden, Perron038 en Industrial Robotics. We verankeren die kennis in meerdere bachelor- en masteropleidingen van de hogescholen, waaronder Technische Informatica, Elektrotechniek, Mechatronica, HBO-ICT, Industrieel Product Ontwerpen en Mechanical Engineering. En we dissemineren deze kennis via TechForFuture netwerk.
Toepassingen gebaseerd op artificiële intelligentie (AI) worden steeds vaker ingezet voor het maken van keuzes en besluiten. Deze toepassingen worden echter ook steeds complexer. Het is in sommige gevallen niet of moeilijk na te gaan hoe een algoritme tot een besluit is gekomen. Wat de AI doet is als het ware ondoorzichtig. Dit geldt ook in de financiële sector, terwijl juist in deze sector vertrouwen een grote rol speelt. Daarom is het belangrijk dat bijvoorbeeld klanten en toezichthouders in de financiële sector een passende uitleg krijgen hoe een op AI gebaseerd besluit tot stand gekomen is. Bijvoorbeeld waarom een lening niet is toegekend of waarom een transactie is aangemerkt als mogelijk frauduleus. Uitlegbare AI (in het Engels Explainable AI ofwel XAI) is het onderzoeksveld dat streeft naar het inzichtelijk maken van ondoorzichtige AI. Dat start volgens ons met het in beeld krijgen wat voor soort uitleg in welke situatie voor welk type stakeholder vereist is bij toepassing van AI. Verder is het de vraag welke vormen van AI zich goed lenen voor uitleg, en welke XAI-oplossing het beste geschikt is om een uitleg te kunnen genereren. Wij hebben XAI gedefinieerd als een set van methoden en technieken om een stakeholder een passende uitleg te kunnen geven over het functioneren en/of de resultaten van een AI-oplossing op een zodanig manier dat die uitleg begrijpelijk is voor en tegemoet komt aan de zorgen van die stakeholder. Doel Het doel van het project is om in samenwerking met organisaties in de financiële sector praktijkgericht onderzoek te doen naar uitlegbaarheid en daarbij de randvoorwaarden van uitlegbaarheid in beeld te brengen. Dit bestaat enerzijds uit het helder krijgen van de stakeholders en welke uitleg zij verwachten en anderzijds hoe die uitleg het beste tot stand kan worden gebracht. Organisaties waarmee wordt samengewerkt zijn onder andere financiële dienstverleners en toezichthouders. Resultaten Raamwerk voor uitlegbare AI met type stakeholders en soorten uitleg voor de financiële sector. Dit raamwerk is uiteengezet in het whitepaper: XAI in the financial sector 'a conceptual framework for explainable AI'. De Hogeschool Utrecht heeft meegewerkt aan een verkennend onderzoek naar uitlegbaarheid bij AI met DNB, de AFM, de Nederlandse Vereniging van Banken en drie Nederlandse grootbanken. In dit onderzoek is het raamwerk van de Hogeschool Utrecht toegepast. Bekijk de resultaten van het onderzoek. Op basis van dit onderzoek is een paper ingediend en geaccepteerd op de 33e Benelux Conference on Artificial Intelligence. De Hogeschool Utrecht heeft samen met consortiumpartners Floryn, Researchable en de Volksbank in een eenjarig project onderzoek gedaan naar aspecten die een rol spelen bij het implementeren van explainable AI. Als resultaat van dit onderzoek is een checklist gepubliceerd en een whitepaper waarin deze checklist uitgebreid wordt toegelicht. Daarnaast is een paper ingediend bij de HHAI2023 conferentie. Meer informatie over dit project is op deze pagina te vinden. Een subsidieaanvraag voor een tweejarig RAAK-mkb project is gehonoreerd. Dit project, FIN-X geheten, heeft tot doel hulpmiddelen te ontwikkelen die interne gebruikers van AI-toepassingen meer en beter inzicht geven in de werking en uitkomsten ervan. Meer informatie over dit project is op de volgende pagina te vinden. In samenwerking met de Copenhagen Business School en het Verbond van Verzekeraars heeft de Hogeschool Utrecht in 2023 onderzoek gedaan naar de rol van explainable AI bij fraudedetectie van schadeclaims bij verzekeraars. De resultaten van het onderzoek zijn vastgelegd in dit Whitepaper. De belangrijkste conclusie uit het onderzoek is dat de implementatie van AI bij fraudedetectie een businesstransformatie is met veel ethische en organisatorische overwegingen. De uitlegbaarheid van het AI-systeem wordt als cruciaal gezien, zowel vanuit ethisch oogpunt (als onderdeel van het transparantiebeginsel), als vanuit praktisch oogpunt (als middel om vertrouwen en acceptatie te winnen van interne belanghebbenden, en voor een goede samenwerking tussen mens en machine). De praktische implementatie van explainable AI is nog steeds een punt van discussie en onderzoek in de sector. Looptijd 01 juni 2020 - 31 maart 2025 Aanpak Vanuit de Hogeschool Utrecht streven we naar praktijkgericht onderzoek en steken daarom het onderzoek naar XAI in op het niveau van use-cases. We willen per use-case in kaart brengen welke stakeholders behoefte hebben aan welke uitleg. Door deze aanpak kunnen we gericht vanuit de praktijk de link met de literatuur leggen en nieuwe inzichten rapporteren. Een voorbeeld van een use-case die wordt onderzocht is kredietverlening aan consumenten (consumptief krediet). Uiteindelijk werken we toe naar een raamwerk met bijbehorende principes en richtlijnen voor XAI toegespitst op de gehele financiële sector.” veranderen in: “Voorbeelden van use-cases die worden onderzocht zijn kredietverlening, klantacceptatie en fraudedetectie bij claimafhandeling. Uiteindelijk werken we toe naar tools voor XAI toegespitst op de gehele financiële sector. Financiële dienstverleners of andere partijen in het financiële ecosysteem die geïnteresseerd zijn in samenwerking met ons worden van harte uitgenodigd contact met ons op te nemen. Download het whitepaper whitepaper: XAI in the financial sector Gerelateerd project Dit project is gekoppeld aan het KIEM project Uitlegbare AI in de Financiële Sector, dat de opzet kan zijn voor een aanvraag voor vervolgonderzoek om uiteindelijk te komen tot een aanpak en hulpmiddelen voor uitlegbare AI.