Chatbots werden oorspronkelijk ontwikkeld voor klantenservice, maar hun 24/7 beschikbaarheid en toegankelijkheid maken ze ook interessant voor maatschappelijke toepassingen. Shakila Shayan, onderzoeker bij lectoraat Human Experience & Media Design (HEMD) op Hogeschool Utrecht, werkt samen met UMC Utrecht en het Centrum Seksueel Geweld aan een project over de inzet van chatbots voor slachtoffers van seksueel geweld. Sarah Mbawa, ook onderzoeker binnen HEMD, richt zich in deze context op het zelfmoordpreventie-ecosysteem. In dit artikel meer over hun onderzoek.
Ondanks meer dan 100.000 gerapporteerde gevallen van seksueel geweld in Nederland per jaar, zijn er veel slachtoffers die geen aangifte doen of geen behandeling zoeken vanwege schaamte, schuldgevoel en angst voor oordelen. Slachtoffers vermijden het praten over hun trauma, terwijl hun dagelijkse leven verstoord wordt door flashbacks, angst en slaapstoornissen. Onbehandelde ervaringen van seksueel geweld kunnen zelfs leiden tot ernstige psychische problemen, zoals PTSS.
Het bespreekbaar maken van de traumatische ervaring kan voor slachtoffers voelen als het openen van de doos van Pandora. Ook bij contact met hulplijnen hebben slachtoffers moeite hun ervaring onder woorden te brengen. Toch is dit een heel belangrijke stap in de zoektocht naar hulp. Als slachtoffers hun gevoelens kunnen ontwarren en omzetten in een verhaal, kunnen ze geleidelijk de controle over de intensiteit van hun emoties terugkrijgen en zullen ze eerder professionele hulp zoeken.
Het onderzoek van Shakila heeft als doel een chatbot te ontwikkelen die slachtoffers van seksueel geweld ondersteunt bij zelfonthulling en het zoeken naar professionele hulp. Het richt zich op het wegnemen van de barrières die slachtoffers ervaren bij zelfonthulling, zoals stigma, angst voor oordelen, de worsteling met zelfverwijt en dat je het incident en de bijbehorende informatie moet herervaren.
Chatbots, en dan in het bijzonder conversatieagenten (CA’s), kúnnen een laagdrempelige en niet-oordelende ondersteuning bieden op het gesprek op gang te brengen, maar missen vaak het menselijke begrip dat nodig is voor trauma-gerelateerde gesprekken. Chatbots kunnen emoties niet goed inschatten via gezichtsuitdrukkingen, lichaamstaal of stem en zijn ongeschikt voor crisisbeheer. Als een gebruiker van streek raakt of veiligheidsproblemen ontstaan, kan de chatbot onvoldoende ingrijpen.
Professionele hulpverleners kunnen dit gelukkig wel; ze kunnen het stressniveau van de cliënt monitoren, lichaamstaal observeren en ingrijpen met stressverlagende technieken om cliënten kalm en in controle over hun emoties te houden. Huidige chatbots, vooral de geavanceerde AI-gebaseerde chatbots, hebben dit niveau van regulatie niet. Ze beginnen het gesprek door de gebruiker uit te nodigen om openlijk te praten en door te praten, wat uiteindelijk uit de hand kan lopen en schadelijk kan zijn voor de gebruiker.
Shakila wil aan de hand van haar onderzoek een chatbot ontwerpen waarin ze de regulatiepraktijk van de therapeuten kan nabootsen om individuen te helpen hun ervaring stap voor stap te ontvouwen en – heel belangrijk – dit alleen te doen wanneer zij er klaar voor zijn. Dit kan alleen in een sterk gereguleerde en zorgvuldig ontworpen dialoog die van tevoren is opgesteld.
Samen met verschillende chatbotbedrijven ontwikkelt het team een prototype chatbot. Deze chatbot vertelt verhalen van anderen, wat slachtoffers helpt om hun eigen ervaring te herkennen en eventueel onder woorden te brengen. Deze indirecte aanpak biedt erkenning en verlaagt de drempel om zelf te spreken. Therapeuten zien deze methode als toegankelijker dan directe ondervraging, omdat het de druk vermindert om expliciet te vertellen wat er is gebeurd.
De volgende stap is het testen van het prototype met cliënten, om te beoordelen of het systeem effectief en wenselijk is. Uiteindelijk hoopt het team een volwaardig systeem te ontwikkelen dat zelfonthulling ondersteunt en op de website van het Centrum Seksueel Geweld kan worden ingezet. De samenwerking met eindgebruikers en professionals blijft hier essentieel; geestelijke gezondheidszorg draait namelijk om de praktijkervaring van therapeuten en kan niet simpelweg in technologie worden vertaald. Elke gebruiker brengt namelijk verschillende uitdagingen mee, die een gepersonaliseerde aanpak vereisen.
Sarah Mbawa, ook onderzoeker binnen HEMD, richt zich in deze context op het zelfmoordpreventie-ecosysteem. Suïcidale gedachten hebben en hier over praten met een chatbot is een onwijs gevoelig onderwerp waar de gebruiker in een zeer kwetsbare staat kan zijn. Een chatbot kan de ernst van de situatie niet beoordelen: in hoeverre is er nú acute hulp nodig? En indien die hulp wel nodig zou zijn, kan de chatbot geen 113 of de politie bellen. Daarom richt Sarah's project zich op het verkennen van hoe en op welke manier deze technologie in deze context kan worden gebruikt, specifiek hoe chatbots kunnen helpen bij het monitoren van suïcidale gedachten en gedragingen en het faciliteren van verbindingen met geestelijke gezondheidsprofessionals om crises te voorkomen. Daarnaast onderzoekt zij hoe we chatbots kunnen ontwerpen ter ondersteuning van hulpzoekers en professionals in de geestelijke gezondheidszorg door een gebruikersgerichte en multidisciplinaire, collaboratieve aanpak te hanteren.
Dit promotieonderzoek richt zich op het faciliteren van het ontwerpen en beoordelen van digitale interventies voor de geestelijke gezondheidszorg door de perspectieven van belanghebbenden (beoefenaars in de geestelijke gezondheidszorg, gebruikers en ontwerpers) te bekijken en co-gecreëerde ontwerp- en beoordelingsprincipes op te leveren die de ontwikkeling van effectieve digitale interventies voor geestelijke gezondheid mogelijk maken, zoals gesprekspartners en mobiele gezondheidsapps.
As AI systems become increasingly prevalent in our daily lives and work, it is essential to contemplate their social role and how they interact with us. While functionality and increasingly explainability and trustworthiness are often the primary focus in designing AI systems, little consideration is given to their social role and the effects on human-AI interactions. In this paper, we advocate for paying attention to social roles in AI design. We focus on an AI healthcare application and present three possible social roles of the AI system within it to explore the relationship between the AI system and the user and its implications for designers and practitioners. Our findings emphasise the need to think beyond functionality and highlight the importance of considering the social role of AI systems in shaping meaningful human-AI interactions.