The user experience of our daily interactions is increasingly shaped with the aid of AI, mostly as the output of recommendation engines. However, it is less common to present users with possibilities to navigate or adapt such output. In this paper we argue that adding such algorithmic controls can be a potent strategy to create explainable AI and to aid users in building adequate mental models of the system. We describe our efforts to create a pattern library for algorithmic controls: the algorithmic affordances pattern library. The library can aid in bridging research efforts to explore and evaluate algorithmic controls and emerging practices in commercial applications, therewith scaffolding a more evidence-based adoption of algorithmic controls in industry. A first version of the library suggested four distinct categories of algorithmic controls: feeding the algorithm, tuning algorithmic parameters, activating recommendation contexts, and navigating the recommendation space. In this paper we discuss these and reflect on how each of them could aid explainability. Based on this reflection, we unfold a sketch for a future research agenda. The paper also serves as an open invitation to the XAI community to strengthen our approach with things we missed so far.
MULTIFILE
This white paper is the result of a research project by Hogeschool Utrecht, Floryn, Researchable, and De Volksbank in the period November 2021-November 2022. The research project was a KIEM project1 granted by the Taskforce for Applied Research SIA. The goal of the research project was to identify the aspects that play a role in the implementation of the explainability of artificial intelligence (AI) systems in the Dutch financial sector. In this white paper, we present a checklist of the aspects that we derived from this research. The checklist contains checkpoints and related questions that need consideration to make explainability-related choices in different stages of the AI lifecycle. The goal of the checklist is to give designers and developers of AI systems a tool to ensure the AI system will give proper and meaningful explanations to each stakeholder.
MULTIFILE
Dit artikel legt het belang uit van goede uitleg van kunstmatige intelligentie. Rechten van individuen zullen door ontwerpers van systemen van te voren moeten worden ingebouwd. AI wordt beschouwd als een 'sleuteltechnologie' die de wereld net zo ingrijpend gaat veranderen als de industriele revolutie. Binnen de stroming XAI wordt onderzoek gedaan naar interpretatie van werking van AI.
Bedrijven, waaronder telecomproviders, vertrouwen steeds meer op complexe AI-systemen. Het gebrek aan interpreteerbaarheid dat zulke systemen vaak introduceren zorgt voor veel uitdagingen om het onderliggende besluitvormingsproces te begrijpen. Vertrouwen in AI-systemen is belangrijk omdat het bijdraagt aan acceptatie en adoptie onder gebruikers. Het vakgebied Explainable AI (XAI) speelt hierbij een cruciale rol door transparantie en uitleg aan gebruikers te bieden voor de beslissingen en werking van zulke systemen.Doel Bij AI-systemen zijn gewoonlijk verschillende stakeholders betrokken, die elk een unieke rol hebben met betrekking tot deze systemen. Als gevolg hiervan varieert de behoefte voor uitleg afhankelijk van wie het systeem gebruikt. Het primaire doel van dit onderzoek is het genereren en evalueren van op stakeholder toegesneden uitleg voor use cases in de telecomindustrie. Door best practices te identificeren, nieuwe explainability tools te ontwikkelen en deze toe te passen in verschillende use cases, is het doel om waardevolle inzichten op te doen. Resultaten Resultaten omvatten het identificeren van de huidige best practices voor het genereren van betekenisvolle uitleg en het ontwikkelen van op maat gemaakte uitleg voor belanghebbenden voor telecom use-cases. Looptijd 01 september 2023 - 30 augustus 2027 Aanpak Het onderzoek begint met een literatuurstudie, gevolgd door de identificatie van mogelijke use-cases en het in kaart brengen van de behoeften van stakeholders. Vervolgens zullen prototypes worden ontwikkeld en hun vermogen om betekenisvolle uitleg te geven, zal worden geëvalueerd.
Bedrijven, waaronder telecomproviders, vertrouwen steeds meer op complexe AI-systemen. Het gebrek aan interpreteerbaarheid dat zulke systemen vaak introduceren zorgt voor veel uitdagingen om het onderliggende besluitvormingsproces te begrijpen. Vertrouwen in AI-systemen is belangrijk omdat het bijdraagt aan acceptatie en adoptie onder gebruikers. Het vakgebied Explainable AI (XAI) speelt hierbij een cruciale rol door transparantie en uitleg aan gebruikers te bieden voor de beslissingen en werking van zulke systemen.
Uitlegbaarheid van de uitkomsten en werking van artificiële intelligentie (AI) toepassingen is een belangrijke voorwaarde om vertrouwen van consumenten en maatschappij in AI-toepassingen te borgen, zeker in de financiële sector. In dit project ontwikkelen we hulpmiddelen om uitkomsten van complexe AI-toepassingen om te zetten naar een begrijpelijke uitleg voor medewerkers zoals klantacceptanten en schadebehandelaren. Dat is van belang omdat deze medewerkers met de klant communiceren en in staat moeten zijn om die een uitleg te geven bijvoorbeeld als de schadeclaim van een klant wordt afgewezen, omdat die door een AI-toepassing als frauduleus is bestempeld. Doel Het project heeft tot doel een concrete bijdrage te leveren aan de implementatie van effectieve en mensgerichte AI-toepassingen door hulpmiddelen te ontwikkelen die interne gebruikers van die AI-toepassingen meer en beter inzicht geven in de werking en uitkomsten ervan. Resultaten Handreikingen (in de vorm van tools en instrumenten) die richting geven en ondersteunen bij het genereren, communiceren en evalueren van uitleg. De primaire doelgroep van de handreikingen zijn ontwerpers en ontwikkelaars van AI- en XAI-toepassingen. Looptijd 31 januari 2023 - 31 maart 2025 Aanpak Het project volgt een design science aanpak waarbij op basis van behoeften uit de praktijk en al beschikbare kennis artefacten worden ontwikkeld. De artefacten in dit project zijn de handreikingen die bij resultaten zijn beschreven. Subsidieverstrekker FIN-X is een project dat subsidie ontvangt van het Nationaal Regieorgaan Praktijkgericht Onderzoek SIA in het kader van de RAAK-mkb regeling september 2022 met als dossiernummer RAAK.MKB17.003