In de afgelopen jaren hebben technologische ontwikkelingen de aard van dienstverlening ingrijpend veranderd (Huang & Rust, 2018). Technologie wordt steeds vaker ingezet om menselijke servicemedewerkers te vervangen of te ondersteunen (Larivière et al., 2017; Wirtz et al., 2018). Dit stelt dienstverleners in staat om meer klanten te bedienen met minder werknemers, waardoor de operationele efficiëntie toeneemt (Beatson et al., 2007). Deze operationele efficiëntie leidt weer tot lagere kosten en een groter concurrentievermogen. Ook voor klanten kan de inzet van technologie voordelen hebben, zoals betere toegankelijkheid en consistentie, tijd- en kostenbesparing en (de perceptie van) meer controle over het serviceproces (Curran & Meuter, 2005). Mede vanwege deze beoogde voordelen is de inzet van technologie in service-interacties de afgelopen twee decennia exponentieel gegroeid. De inzet van zogenaamde conversational agents is een van de belangrijkste manieren waarop dienstverleners technologie kunnen inzetten om menselijke servicemedewerkers te ondersteunen of vervangen (Gartner, 2021). Conversational agents zijn geautomatiseerde gesprekspartners die menselijk communicatief gedrag nabootsen (Laranjo et al., 2018; Schuetzler et al., 2018). Er bestaan grofweg drie soorten conversational agents: chatbots, avatars, en robots. Chatbots zijn applicaties die geen virtuele of fysieke belichaming hebben en voornamelijk communiceren via gesproken of geschreven verbale communicatie (Araujo, 2018;Dale, 2016). Avatars hebben een virtuele belichaming, waardoor ze ook non-verbale signalen kunnen gebruiken om te communiceren, zoals glimlachen en knikken (Cassell, 2000). Robots, ten slotte, hebben een fysieke belichaming, waardoor ze ook fysiek contact kunnen hebben met gebruikers (Fink, 2012). Conversational agents onderscheiden zich door hun vermogen om menselijk gedrag te vertonen in service-interacties, maar op de vraag ‘hoe menselijk is wenselijk?’ bestaat nog geen eenduidig antwoord. Conversational agents als sociale actoren Om succesvol te zijn als dienstverlener, is kwalitatief hoogwaardige interactie tussen servicemedewerkers en klanten van cruciaal belang (Palmatier et al., 2006). Dit komt omdat klanten hun percepties van een servicemedewerker (bijv. vriendelijkheid, bekwaamheid) ontlenen aan diens uiterlijk en verbale en non verbale gedrag (Nickson et al., 2005; Specht et al., 2007; Sundaram & Webster, 2000). Deze klantpercepties beïnvloeden belangrijke aspecten van de relatie tussen klanten en dienstverleners, zoals vertrouwen en betrokkenheid, die op hun beurt intentie tot gebruik, mond-tot-mondreclame, loyaliteit en samenwerking beïnvloeden (Hennig-Thurau, 2004; Palmatier et al., 2006).Er is groeiend bewijs dat de uiterlijke kenmerken en communicatieve gedragingen (hierna: menselijke communicatieve gedragingen) die percepties van klanten positief beïnvloeden, ook effectief zijn wanneer ze worden toegepast door conversational agents (B.R. Duffy, 2003; Holtgraves et al., 2007). Het zogenaamde ‘Computers Als Sociale Actoren’ (CASA paradigma vertrekt vanuit de aanname dat mensen de neiging hebben om onbewust sociale regels en gedragingen toe te passen in interacties met computers, ondanks het feit dat ze weten dat deze computers levenloos zijn (Nass et al., 1994). Dit kan verder worden verklaard door het fenomeen antropomorfisme (Epley et al., 2007; Novak & Hoffman, 2019). Antropomorfisme houdt in dat de aanwezigheid van mensachtige kenmerken of gedragingen in niet-menselijke agenten, onbewust cognitieve schema's voor menselijke interactie activeert (Aggarwal & McGill, 2007; M.K. Lee et al., 2010). Door computers te antropomorfiseren komen mensen tegemoet aan hun eigen behoefte aan sociale verbinding en begrip van de sociale omgeving (Epley et al., 2007; Waytz et al., 2010). Dit heeft echter ook tot gevolg dat mensen cognitieve schema’s voor sociale perceptie toepassen op conversational agents.
DOCUMENT
Our study introduces an open general-purpose platform for the embodiment of conversational AI systems. Conversational User-interface Based Embodiment (CUBE) is designed to streamline the integration of embodied solutions into text-based dialog managers, providing flexibility for customization depending on the specific use case and application. CUBE is responsible for naturally interacting with users by listening, observing, and responding to them. A detailed account of the design and implementation of the solution is provided, as well as a thorough examination of how it can be integrated by developers and AI dialogue manager integrators. Through interviews with developers, insight was gained into the advantages of such systems. Additionally, key areas that require further research were identified in the current challenges in achieving natural interaction between the user and the embodiments. CUBE bridges some of the gaps by providing controls to further develop natural non-verbal communication.
LINK
Research-based teacher education can be understood in different ways: as a call to understand teacher education institutions as research institutions, as the ambition to educate student teachers to have an inquiring attitude, as the basing of teacher education curricula on the latest research, or as a combination of all three.In this chapter we reflect on a method of connecting research, curriculum development and practice in teacher education, presenting a case study of a conversational community of teacher educators and researchers. The aim of the conversational community was to understand the process of curriculum design in teacher education as an inspiring and practical combination of design research, self-study, collaborative action research and curriculum study by teacher educators. This process was supported by a conversational framework in which curriculum development was understood as an ongoing dialogue between vision, intentions, design and practice in the teacher education curriculum. Using the conversational framework in this single case study of a conversational community, we have tried to connect teacher education research, curriculum development and practice in a meaningful way.
DOCUMENT
Dit promotieproject richt zich op Conversational Agents en hun rol in de dienstverlening in het publieke domein. Geautomatiseerde vormen van communicatie komen steeds vaker voor. Dit roept vragen op over het opbouwen van relaties, vertrouwen, vormen van servicegebruik en data-ethiek.
Dit promotieproject richt zich op Conversational Agents en hun rol in de dienstverlening in het publieke domein. Geautomatiseerde vormen van communicatie komen steeds vaker voor. Dit roept vragen op over het opbouwen van relaties, vertrouwen, vormen van servicegebruik en data-ethiek.Doel De interdisciplinaire studie onderzoekt kritisch hoe de interacties van burgers met Conversational Agents het vertrouwen in publieke organisaties vormgeven. Resultaten Inzichten over huidig en eerder onderzoek naar vertrouwen en Conversational Agents door middel van een systematisch literatuuronderzoek Identificatie van ‘trust markers’ in gebruikersinteracties met bots Inzichten over opvattingen en reacties van burgers op verschillende gradaties van antropomorfisering in CA-design Begrip over de rol van Conversational Agents in de citizen journey Looptijd 01 januari 2023 - 01 januari 2027 Aanpak Er zullen vier onderzoeken worden uitgevoerd, afgestemd op dimensies van vertrouwen. Deze studies gaan over concepten van vertrouwen, identificeren ‘trust markers’ in mens-bot-dialogen, voeren experimenten uit rond mens-bot-relaties en onderzoeken de rol van CA's in de burgerreis door digitale diensten. Afstudeerproject Chatbots en Voice assistants Tijdens het onderzoeksproject Bots of Trust (BOT) zijn er verschillende mogelijkheden om met studenten samen te werken aan een gerelateerd vraagstuk zoals chatbots en/of voice assistants en hoe deze vorm geven aan vertrouwen in verschillende sectoren.
-Chatbots are being used at an increasing rate, for instance, for simple Q&A conversations, flight reservations, online shopping and news aggregation. However, users expect to be served as effective and reliable as they were with human-based systems and are unforgiving once the system fails to understand them, engage them or show them human empathy. This problem is more prominent when the technology is used in domains such as health care, where empathy and the ability to give emotional support are most essential during interaction with the person. Empathy, however, is a unique human skill, and conversational agents such as chatbots cannot yet express empathy in nuanced ways to account for its complex nature and quality. This project focuses on designing emotionally supportive conversational agents within the mental health domain. We take a user-centered co-creation approach to focus on the mental health problems of sexual assault victims. This group is chosen specifically, because of the high rate of the sexual assault incidents and its lifetime destructive effects on the victim and the fact that although early intervention and treatment is necessary to prevent future mental health problems, these incidents largely go unreported due to the stigma attached to sexual assault. On the other hand, research shows that people feel more comfortable talking to chatbots about intimate topics since they feel no fear of judgment. We think an emotionally supportive and empathic chatbot specifically designed to encourage self-disclosure among sexual assault victims could help those who remain silent in fear of negative evaluation and empower them to process their experience better and take the necessary steps towards treatment early on.