This study was conducted in accordance with the Declaration of Helsinki, and the protocol was approved by the institutional medical ethic committee (number CWO -1911) and funded by Altrecht Mental Health Care. All participants of this study signed informed consent. The participants of this study did not give written consent for their data to be shared publicly outside of the Mental Health Institute were the data were generated. Derived data will be available conform APA policy to other researchers upon request. All authors had full access to the data in the study and take responsibility for the integrity of the data and the accuracy of the data analysis. The authors have no conflicts of interest to report. Abstract Epistemic trust (ET) refers to the predisposition to trust information as authentic, trustworthy and relevant to the self. Epistemic distrust – resulting from early adversity – may interfere with openness to social learning within the therapeutic encounter, reducing the ability to benefit from treatment. The self-report Questionnaire Epistemic Trust (QET) is a newly developed instrument that aims to assess ET. This study presents the first results on the psychometric properties of the QET in both a community and a clinical sample. Our findings indicate that the QET is composed of four meaningful subscales with good to excellent internal consistency. The QET shows relevant associations with related constructs like personality functioning, symptom distress and quality of life. QET scores clearly distinguish between a clinical and community sample and are associated with the quality of the therapeutic alliance. The QET provides a promising, brief and user-friendly instrument that could be used for a range of clinical and research purposes. Future studies with larger samples are needed to strengthen construct validity and to investigate the value of the QET to predict differential treatment responses or to study mechanisms of change.
LINK
The healthcare sector has been confronted with rapidly rising healthcare costs and a shortage of medical staff. At the same time, the field of Artificial Intelligence (AI) has emerged as a promising area of research, offering potential benefits for healthcare. Despite the potential of AI to support healthcare, its widespread implementation, especially in healthcare, remains limited. One possible factor contributing to that is the lack of trust in AI algorithms among healthcare professionals. Previous studies have indicated that explainability plays a crucial role in establishing trust in AI systems. This study aims to explore trust in AI and its connection to explainability in a medical setting. A rapid review was conducted to provide an overview of the existing knowledge and research on trust and explainability. Building upon these insights, a dashboard interface was developed to present the output of an AI-based decision-support tool along with explanatory information, with the aim of enhancing explainability of the AI for healthcare professionals. To investigate the impact of the dashboard and its explanations on healthcare professionals, an exploratory case study was conducted. The study encompassed an assessment of participants’ trust in the AI system, their perception of its explainability, as well as their evaluations of perceived ease of use and perceived usefulness. The initial findings from the case study indicate a positive correlation between perceived explainability and trust in the AI system. Our preliminary findings suggest that enhancing the explainability of AI systems could increase trust among healthcare professionals. This may contribute to an increased acceptance and adoption of AI in healthcare. However, a more elaborate experiment with the dashboard is essential.
LINK
From diagnosis to patient scheduling, AI is increasingly being considered across different clinical applications. Despite increasingly powerful clinical AI, uptake into actual clinical workflows remains limited. One of the major challenges is developing appropriate trust with clinicians. In this paper, we investigate trust in clinical AI in a wider perspective beyond user interactions with the AI. We offer several points in the clinical AI development, usage, and monitoring process that can have a significant impact on trust. We argue that the calibration of trust in AI should go beyond explainable AI and focus on the entire process of clinical AI deployment. We illustrate our argument with case studies from practitioners implementing clinical AI in practice to show how trust can be affected by different stages in the deployment cycle.
DOCUMENT
De technische en economische levensduur van auto’s verschilt. Een goed onderhouden auto met dieselmotor uit het bouwjaar 2000 kan technisch perfect functioneren. De economische levensduur van diezelfde auto is echter beperkt bij introductie van strenge milieuzones. Bij de introductie en verplichtstelling van geavanceerde rijtaakondersteunende systemen (ADAS) zien we iets soortgelijks. Hoewel de auto technisch gezien goed functioneert kunnen verouderde software, algorithmes en sensoren leiden tot een beperkte levensduur van de gehele auto. Voorbeelden: - Jeep gehackt: verouderde veiligheidsprotocollen in de software en hardware beperkten de economische levensduur. - Actieve Cruise Control: sensoren/radars van verouderde systemen leiden tot beperkte functionaliteit en gebruikersacceptatie. - Tesla: bij bestaande auto’s worden verouderde sensoren uitgeschakeld waardoor functies uitvallen. In 2019 heeft de EU een verplichting opgelegd aan automobielfabrikanten om 20 nieuwe ADAS in te bouwen in nieuw te ontwikkelen auto’s, ongeacht prijsklasse. De mate waarin deze ADAS de economische levensduur van de auto beperkt is echter nog onvoldoende onderzocht. In deze KIEM wordt dit onderzocht en wordt tevens de parallel getrokken met de mobiele telefonie; beide maken gebruik van moderne sensoren en software. We vergelijken ontwerpeisen van telefoons (levensduur van gemiddeld 2,5 jaar) met de eisen aan moderne ADAS met dezelfde sensoren (levensduur tot 20 jaar). De centrale vraag luidt daarom: Wat is de mogelijke impact van veroudering van ADAS op de economische levensduur van voertuigen en welke lessen kunnen we leren uit de onderliggende ontwerpprincipes van ADAS en Smartphones? De vraag wordt beantwoord door (i) literatuuronderzoek naar de veroudering van ADAS (ii) Interviews met ontwerpers van ADAS, leveranciers van retro-fit systemen en ontwerpers van mobiele telefoons en (iii) vergelijkend rij-onderzoek naar het functioneren van ADAS in auto’s van verschillende leeftijd en prijsklassen.
De gezondheidszorg kampt met personeelstekorten en lange wachtlijsten, wat de zorgkwaliteit voor patiënten ernstig treft. De toenemende vergrijzing van de bevolking en een toenemend tekort aan geschoold personeel verergeren deze problemen. Hierdoor komen zowel zorgverleners als mantelzorgers onder grote druk te staan [1]. In dit project wordt met behulp van AI-onderzoek gedaan naar de haalbaarheid van het automatisch detecteren van de gesteldheid van zorgbehoevenden. Dit biedt mogelijkheden om de druk op zorgverleners en mantelzorgers te verlichten door taken te automatiseren en hen te ondersteunen bij het identificeren van de behoeften van de patiënten. De huidige tekorten in de zorg zijn verontrustend en daarom niet houdbaar voor de kwaliteit van de zorg. Automatisering is daarom essentieel om de zorgkwaliteit te waarborgen. Het consortium bestaat uit zorginstelling De Zijlen, Valtes en het NHL Stenden Lectoraat Computer Vision & Data Science. Vanuit De Zijlen en Valtes is de vraag ontstaan voor de automatische detectie van de gesteldheid van zorgbehoevenden. Gezamenlijk wordt de technische haalbaarheid onderzocht om de business-case te ondersteunen. Daarnaast is het doel van dit project om met een proof-of-concept een breder netwerk van belangenorganisaties, ontwikkelaars en eindgebruikers aan te spreken. Er wordt gewerkt in een multidisciplinair team van studenten, docent-onderzoekers, lectoren, ontwikkelaar en potentiële eindgebruikers.
Dit promotieproject richt zich op Conversational Agents en hun rol in de dienstverlening in het publieke domein. Geautomatiseerde vormen van communicatie komen steeds vaker voor. Dit roept vragen op over het opbouwen van relaties, vertrouwen, vormen van servicegebruik en data-ethiek.