Grounded in the Stereotype Content Model, Risk Perception Theory, Technology Acceptance Model, and Relational Embeddedness Theory, this research delves into the relationship between chatbot conversation styles, customer risk, and the mediating role of chatbot acceptance and tie strength in online shopping. A 2 (warm vs. cold) * 2 (competent vs. incompetent) between-subjects experiment is conducted on 320 participants and the results obtained from two-way ANOVA and PROCESS macro revealed that: (a) customer-perceived risk decreases with conversation warmth rather than conversation competence; (b) customer acceptance of chatbots improves with conversation competence rather than conversation warmth, while not acting as an intermediary factor between the conversation styles and customer-perceived risk; (c) customer perceived tie strength increases with both conversation warmth and conversation competence. The findings contribute to the existing literature about the impact of chatbot anthropomorphism on customer cognitive processes and offer executives insights into the design of customer-friendly chatbots.
LINK
As artificial intelligence (AI) reshapes hiring, organizations increasingly rely on AI-enhanced selection methods such as chatbot-led interviews and algorithmic resume screening. While AI offers efficiency and scalability, concerns persist regarding fairness, transparency, and trust. This qualitative study applies the Artificially Intelligent Device Use Acceptance (AIDUA) model to examine how job applicants perceive and respond to AI-driven hiring. Drawing on semi-structured interviews with 15 professionals, the study explores how social influence, anthropomorphism, and performance expectancy shape applicant acceptance, while concerns about transparency and fairness emerge as key barriers. Participants expressed a strong preference for hybrid AI-human hiring models, emphasizing the importance of explainability and human oversight. The study refines the AIDUA model in the recruitment context and offers practical recommendations for organizations seeking to implement AI ethically and effectively in selection processes.
MULTIFILE
In de afgelopen jaren hebben technologische ontwikkelingen de aard van dienstverlening ingrijpend veranderd (Huang & Rust, 2018). Technologie wordt steeds vaker ingezet om menselijke servicemedewerkers te vervangen of te ondersteunen (Larivière et al., 2017; Wirtz et al., 2018). Dit stelt dienstverleners in staat om meer klanten te bedienen met minder werknemers, waardoor de operationele efficiëntie toeneemt (Beatson et al., 2007). Deze operationele efficiëntie leidt weer tot lagere kosten en een groter concurrentievermogen. Ook voor klanten kan de inzet van technologie voordelen hebben, zoals betere toegankelijkheid en consistentie, tijd- en kostenbesparing en (de perceptie van) meer controle over het serviceproces (Curran & Meuter, 2005). Mede vanwege deze beoogde voordelen is de inzet van technologie in service-interacties de afgelopen twee decennia exponentieel gegroeid. De inzet van zogenaamde conversational agents is een van de belangrijkste manieren waarop dienstverleners technologie kunnen inzetten om menselijke servicemedewerkers te ondersteunen of vervangen (Gartner, 2021). Conversational agents zijn geautomatiseerde gesprekspartners die menselijk communicatief gedrag nabootsen (Laranjo et al., 2018; Schuetzler et al., 2018). Er bestaan grofweg drie soorten conversational agents: chatbots, avatars, en robots. Chatbots zijn applicaties die geen virtuele of fysieke belichaming hebben en voornamelijk communiceren via gesproken of geschreven verbale communicatie (Araujo, 2018;Dale, 2016). Avatars hebben een virtuele belichaming, waardoor ze ook non-verbale signalen kunnen gebruiken om te communiceren, zoals glimlachen en knikken (Cassell, 2000). Robots, ten slotte, hebben een fysieke belichaming, waardoor ze ook fysiek contact kunnen hebben met gebruikers (Fink, 2012). Conversational agents onderscheiden zich door hun vermogen om menselijk gedrag te vertonen in service-interacties, maar op de vraag ‘hoe menselijk is wenselijk?’ bestaat nog geen eenduidig antwoord. Conversational agents als sociale actoren Om succesvol te zijn als dienstverlener, is kwalitatief hoogwaardige interactie tussen servicemedewerkers en klanten van cruciaal belang (Palmatier et al., 2006). Dit komt omdat klanten hun percepties van een servicemedewerker (bijv. vriendelijkheid, bekwaamheid) ontlenen aan diens uiterlijk en verbale en non verbale gedrag (Nickson et al., 2005; Specht et al., 2007; Sundaram & Webster, 2000). Deze klantpercepties beïnvloeden belangrijke aspecten van de relatie tussen klanten en dienstverleners, zoals vertrouwen en betrokkenheid, die op hun beurt intentie tot gebruik, mond-tot-mondreclame, loyaliteit en samenwerking beïnvloeden (Hennig-Thurau, 2004; Palmatier et al., 2006).Er is groeiend bewijs dat de uiterlijke kenmerken en communicatieve gedragingen (hierna: menselijke communicatieve gedragingen) die percepties van klanten positief beïnvloeden, ook effectief zijn wanneer ze worden toegepast door conversational agents (B.R. Duffy, 2003; Holtgraves et al., 2007). Het zogenaamde ‘Computers Als Sociale Actoren’ (CASA paradigma vertrekt vanuit de aanname dat mensen de neiging hebben om onbewust sociale regels en gedragingen toe te passen in interacties met computers, ondanks het feit dat ze weten dat deze computers levenloos zijn (Nass et al., 1994). Dit kan verder worden verklaard door het fenomeen antropomorfisme (Epley et al., 2007; Novak & Hoffman, 2019). Antropomorfisme houdt in dat de aanwezigheid van mensachtige kenmerken of gedragingen in niet-menselijke agenten, onbewust cognitieve schema's voor menselijke interactie activeert (Aggarwal & McGill, 2007; M.K. Lee et al., 2010). Door computers te antropomorfiseren komen mensen tegemoet aan hun eigen behoefte aan sociale verbinding en begrip van de sociale omgeving (Epley et al., 2007; Waytz et al., 2010). Dit heeft echter ook tot gevolg dat mensen cognitieve schema’s voor sociale perceptie toepassen op conversational agents.
DOCUMENT