Deze bijdrage aan "Smart Humanity" (red. W. Bronsgeest en S. de Waart 2020) schetst een beeld van modellen die richting geven aan processen, organisatorische inrichting, en informatievoorziening. AI-toepassingen worden hierbij gezien als onderdeel van de informatievoorziening.
The healthcare sector has been confronted with rapidly rising healthcare costs and a shortage of medical staff. At the same time, the field of Artificial Intelligence (AI) has emerged as a promising area of research, offering potential benefits for healthcare. Despite the potential of AI to support healthcare, its widespread implementation, especially in healthcare, remains limited. One possible factor contributing to that is the lack of trust in AI algorithms among healthcare professionals. Previous studies have indicated that explainability plays a crucial role in establishing trust in AI systems. This study aims to explore trust in AI and its connection to explainability in a medical setting. A rapid review was conducted to provide an overview of the existing knowledge and research on trust and explainability. Building upon these insights, a dashboard interface was developed to present the output of an AI-based decision-support tool along with explanatory information, with the aim of enhancing explainability of the AI for healthcare professionals. To investigate the impact of the dashboard and its explanations on healthcare professionals, an exploratory case study was conducted. The study encompassed an assessment of participants’ trust in the AI system, their perception of its explainability, as well as their evaluations of perceived ease of use and perceived usefulness. The initial findings from the case study indicate a positive correlation between perceived explainability and trust in the AI system. Our preliminary findings suggest that enhancing the explainability of AI systems could increase trust among healthcare professionals. This may contribute to an increased acceptance and adoption of AI in healthcare. However, a more elaborate experiment with the dashboard is essential.
LINK
People tend to be hesitant toward algorithmic tools, and this aversion potentially affects how innovations in artificial intelligence (AI) are effectively implemented. Explanatory mechanisms for aversion are based on individual or structural issues but often lack reflection on real-world contexts. Our study addresses this gap through a mixed-method approach, analyzing seven cases of AI deployment and their public reception on social media and in news articles. Using the Contextual Integrity framework, we argue that most often it is not the AI technology that is perceived as problematic, but that processes related to transparency, consent, and lack of influence by individuals raise aversion. Future research into aversion should acknowledge that technologies cannot be extricated from their contexts if they aim to understand public perceptions of AI innovation.
LINK
In afgelopen jaren zijn er ten behoeve van het journalistieke informatieverzamelingsproces steeds meer digitale, geautomatiseerde en zelflerende ofwel zogenoemde AI (artificial intelligence) tools op de markt verschenen. Wij onderzoeken hoe AI-tools in journalistieke researchproces gebruikt worden en of dat invloed heeft op de selectie en gebruik van informatie en bronnen. Doel Dit onderzoeksproject heeft als doel om na te gaan wat de gevolgen zijn van het gebruik van door algoritmes gestuurde tools op de onafhankelijkheid, objectiviteit, betrouwbaarheid en transparantie van de journalistiek en hoe het bewustzijn over de werking van algoritmes onder journalisten vergroot kan worden. Resultaten Dit onderzoek loopt momenteel nog Looptijd 01 juli 2020 - 31 juli 2022 Aanpak Het is eerst van belang om via interviews na te gaan hoe journalisten AI, bewust of onbewust, gebruiken. Daarna worden op redacties online observaties gedaan en experimenten uitgevoerd om na te gaan wat het effect is op het eindproduct van de journalist. Tot slot, wordt een tool ontworpen rondom de transparantie en werking van AI in het journalistiek.
Dit onderzoeksproject heeft als doel om na te gaan wat de gevolgen zijn van het ge-bruik van door algoritmes gestuurde tools op de onafhankelijkheid, objectiviteit, be-trouwbaarheid en transparantie van de journalistiek en hoe het bewustzijn over de werking van algoritmes onder journalisten vergroot kan worden. Een van de grote problemen van de huidige journalist is de overdosis aan informatie. Terwijl nieuwsmakers voorheen, gewapend met pen en papier, met hun informanten in gesprek gingen en een overzichtelijke hoeveelheid (papieren) documenten door-spitten, is het tegenwoordig onmogelijk zicht te houden op alle beschikbare informa-tie. Het wereldwijde datavolume neemt naar verwachting exponentieel toe: wat in 2013 nog 4.4 zettabyte was, zal in 2025 gegroeid zijn naar 163 zettabyte. Maar soft-ware-tools die zoek- en selectieprocessen automatiseren, faciliteren het werk van journalisten. In afgelopen jaren zijn er ten behoeve van het journalistieke research-, redactie- en verificatieproces steeds meer digitale, geautomatiseerde en zelflerende ofwel zogenoemde AI (artificial intelligence) tools op de markt verschenen. Hoewel AI-tools en zoekmachines efficiënt zijn in het ordenen, selecteren en verifi-eren van data, zijn deze tools verre van objectief. Dit komt met name door de achter-liggende algoritmes. Die zijn niet neutraal. Vandaar deze kritische blik op de inzet van geautomatiseerde tools in de journalistiek, nodig vooral in deze zogenaamde ‘post-truth’-tijden. Door alle ophef over de verspreiding van desinformatie, staat de journa-listiek onder druk. De noodzaak van objectieve, relevante en onafhankelijke journalis-tiek is groter dan ooit. Uit gesprekken met journalisten en data-experts uit de journalistieke praktijk blijkt dat velen de werking van algoritmes niet begrijpen, laat staan dat ze door hebben hoezeer ze daardoor bij het vinden, selecteren en verifiëren van informatie gestuurd worden. Vandaar dit onderzoek: na te gaan hoe journalisten AI kunnen inzetten zonder dat het de journalistieke waarden van onafhankelijkheid, betrouwbaarheid en transparantie ondermijnt.