De wereld van werk verandert. Als gevolg van digitalisering en de economische en ecologische transformatie zullen sommige banen verdwijnen, ontstaan er nieuwe en veranderen bestaande banen. Werkenden veranderen in de toekomst waarschijnlijk vaker van baan. Ook vaardigheden en kennis die nodig zijn om het werk goed te kunnen blijven doen, veranderen. Het belang van en de rol van vakmanschap in het werk kan hierdoor veranderen in veel sectoren en banen, zeker ook in de financiële sector.
One aspect of a responsible application of Artificial Intelligence (AI) is ensuring that the operation and outputs of an AI system are understandable for non-technical users, who need to consider its recommendations in their decision making. The importance of explainable AI (XAI) is widely acknowledged; however, its practical implementation is not straightforward. In particular, it is still unclear what the requirements are of non-technical users from explanations, i.e. what makes an explanation meaningful. In this paper, we synthesize insights on meaningful explanations from a literature study and two use cases in the financial sector. We identified 30 components of meaningfulness in XAI literature. In addition, we report three themes associated with explanation needs that were central to the users in our use cases, but are not prominently described in literature: actionability, coherent narratives and context. Our results highlight the importance of narrowing the gap between theoretical and applied responsible AI.
MULTIFILE
To survive in the increasing globalization competition, companies are required to continuously increase their productivity and enhance innovation. To realize this enhanced productivity, Business Process Management (BPM) maturity models are often used to analyze, improve and manage business processes across the organization. Literature suggests that a relation between BPM maturity and innovation could exist and recommends more research in specific sectors. Specifically, the financial sector is facing a fintech revolution, putting an enormous pressure on how they deal with technology innovation, process disruption and service transformation. Therefore, the objective of this research is to determine the relation between business process management maturity and innovation in the financial sector. Data was collected using a survey at a large financial enterprise in Europe, resulting in sixty-eight responses. Regression analysis shows that 20.6% of the variance in innovation can be explained by BPM maturity.
Toepassingen gebaseerd op artificiële intelligentie (AI) worden steeds vaker ingezet voor het maken van keuzes en besluiten. Deze toepassingen worden echter ook steeds complexer. Het is in sommige gevallen niet of moeilijk na te gaan hoe een algoritme tot een besluit is gekomen. Wat de AI doet is als het ware ondoorzichtig. Dit geldt ook in de financiële sector, terwijl juist in deze sector vertrouwen een grote rol speelt. Daarom is het belangrijk dat bijvoorbeeld klanten en toezichthouders in de financiële sector een passende uitleg krijgen hoe een op AI gebaseerd besluit tot stand gekomen is. Bijvoorbeeld waarom een lening niet is toegekend of waarom een transactie is aangemerkt als mogelijk frauduleus. Uitlegbare AI (in het Engels Explainable AI ofwel XAI) is het onderzoeksveld dat streeft naar het inzichtelijk maken van ondoorzichtige AI. Dat start volgens ons met het in beeld krijgen wat voor soort uitleg in welke situatie voor welk type stakeholder vereist is bij toepassing van AI. Verder is het de vraag welke vormen van AI zich goed lenen voor uitleg, en welke XAI-oplossing het beste geschikt is om een uitleg te kunnen genereren. Wij hebben XAI gedefinieerd als een set van methoden en technieken om een stakeholder een passende uitleg te kunnen geven over het functioneren en/of de resultaten van een AI-oplossing op een zodanig manier dat die uitleg begrijpelijk is voor en tegemoet komt aan de zorgen van die stakeholder. Doel Het doel van het project is om in samenwerking met organisaties in de financiële sector praktijkgericht onderzoek te doen naar uitlegbaarheid en daarbij de randvoorwaarden van uitlegbaarheid in beeld te brengen. Dit bestaat enerzijds uit het helder krijgen van de stakeholders en welke uitleg zij verwachten en anderzijds hoe die uitleg het beste tot stand kan worden gebracht. Organisaties waarmee wordt samengewerkt zijn onder andere financiële dienstverleners en toezichthouders. Resultaten Raamwerk voor uitlegbare AI met type stakeholders en soorten uitleg voor de financiële sector. Dit raamwerk is uiteengezet in het whitepaper: XAI in the financial sector 'a conceptual framework for explainable AI'. De Hogeschool Utrecht heeft meegewerkt aan een verkennend onderzoek naar uitlegbaarheid bij AI met DNB, de AFM, de Nederlandse Vereniging van Banken en drie Nederlandse grootbanken. In dit onderzoek is het raamwerk van de Hogeschool Utrecht toegepast. Bekijk de resultaten van het onderzoek. Op basis van dit onderzoek is een paper ingediend en geaccepteerd op de 33e Benelux Conference on Artificial Intelligence. De Hogeschool Utrecht heeft samen met consortiumpartners Floryn, Researchable en de Volksbank in een eenjarig project onderzoek gedaan naar aspecten die een rol spelen bij het implementeren van explainable AI. Als resultaat van dit onderzoek is een checklist gepubliceerd en een whitepaper waarin deze checklist uitgebreid wordt toegelicht. Daarnaast is een paper ingediend bij de HHAI2023 conferentie. Meer informatie over dit project is op deze pagina te vinden. Een subsidieaanvraag voor een tweejarig RAAK-mkb project is gehonoreerd. Dit project, FIN-X geheten, heeft tot doel hulpmiddelen te ontwikkelen die interne gebruikers van AI-toepassingen meer en beter inzicht geven in de werking en uitkomsten ervan. Meer informatie over dit project is op de volgende pagina te vinden. In samenwerking met de Copenhagen Business School en het Verbond van Verzekeraars heeft de Hogeschool Utrecht in 2023 onderzoek gedaan naar de rol van explainable AI bij fraudedetectie van schadeclaims bij verzekeraars. De resultaten van het onderzoek zijn vastgelegd in dit Whitepaper. De belangrijkste conclusie uit het onderzoek is dat de implementatie van AI bij fraudedetectie een businesstransformatie is met veel ethische en organisatorische overwegingen. De uitlegbaarheid van het AI-systeem wordt als cruciaal gezien, zowel vanuit ethisch oogpunt (als onderdeel van het transparantiebeginsel), als vanuit praktisch oogpunt (als middel om vertrouwen en acceptatie te winnen van interne belanghebbenden, en voor een goede samenwerking tussen mens en machine). De praktische implementatie van explainable AI is nog steeds een punt van discussie en onderzoek in de sector. Looptijd 01 juni 2020 - 31 maart 2025 Aanpak Vanuit de Hogeschool Utrecht streven we naar praktijkgericht onderzoek en steken daarom het onderzoek naar XAI in op het niveau van use-cases. We willen per use-case in kaart brengen welke stakeholders behoefte hebben aan welke uitleg. Door deze aanpak kunnen we gericht vanuit de praktijk de link met de literatuur leggen en nieuwe inzichten rapporteren. Een voorbeeld van een use-case die wordt onderzocht is kredietverlening aan consumenten (consumptief krediet). Uiteindelijk werken we toe naar een raamwerk met bijbehorende principes en richtlijnen voor XAI toegespitst op de gehele financiële sector.” veranderen in: “Voorbeelden van use-cases die worden onderzocht zijn kredietverlening, klantacceptatie en fraudedetectie bij claimafhandeling. Uiteindelijk werken we toe naar tools voor XAI toegespitst op de gehele financiële sector. Financiële dienstverleners of andere partijen in het financiële ecosysteem die geïnteresseerd zijn in samenwerking met ons worden van harte uitgenodigd contact met ons op te nemen. Download het whitepaper whitepaper: XAI in the financial sector Gerelateerd project Dit project is gekoppeld aan het KIEM project Uitlegbare AI in de Financiële Sector, dat de opzet kan zijn voor een aanvraag voor vervolgonderzoek om uiteindelijk te komen tot een aanpak en hulpmiddelen voor uitlegbare AI.