Abusive online behaviors occur at a large scale on all social media, and have dire consequences for their victims. Although the problem is largely acknowledged, technological solutions remain limited to detecting and hiding abusive comments. More can be done to address abusers themselves. We propose to investigate the potential of conversational technologies to dialogue with abusers. In this problem description paper, we outline directions for studying the effectiveness dialogue strategies, e.g., to educate or deter abusers, or keep them busy with chatbots thus limiting the time they spend perpetuating abuses.
MULTIFILE
Introduction:Various subjects in child and youth social care, such as sexuality and sexual violence, are quite sensitive, and professionals may experience a certain reluctance to discuss these subjects with their clients (e.g., the young people they work with, as well as their families) and colleagues. An example of such a subject is sexual abuse and unacceptable behavior that may occur with their clients, whether at home, at the youth care institution or somewhere else.It is essential that youth care professionals do not shy away from such a sensitive subject as sexual abuse and know how to talk about it with their clients in a healthy way. Professionals in child and youth social care should dare to educate on this topic, and be trained to deal with the enormous diversity of young people and parents they encounter in their work.Research on application of trained methods shows that receiving training on itself is often not enough to develop strong applicable competences about subjects like sexual abuse and to continue to apply these acquired practical skills in the field in the long term. In order to be able to apply ‘what is learned’ successfully, it is necessary to practice the learned skills in a safe environment, and to regularly refresh those skills. In order to create an opportunity for practicing skills in a safe environment, we have explored the extent to which innovative chatbot technologies can be used to better equip (future) professionals to apply and practice their skills.
This article describes the relation between mental health and academic performance during the start of college and how AI-enhanced chatbot interventions could prevent both study problems and mental health problems.
Dit promotieproject richt zich op Conversational Agents en hun rol in de dienstverlening in het publieke domein. Geautomatiseerde vormen van communicatie komen steeds vaker voor. Dit roept vragen op over het opbouwen van relaties, vertrouwen, vormen van servicegebruik en data-ethiek.Doel De interdisciplinaire studie onderzoekt kritisch hoe de interacties van burgers met Conversational Agents het vertrouwen in publieke organisaties vormgeven. Resultaten Inzichten over huidig en eerder onderzoek naar vertrouwen en Conversational Agents door middel van een systematisch literatuuronderzoek Identificatie van ‘trust markers’ in gebruikersinteracties met bots Inzichten over opvattingen en reacties van burgers op verschillende gradaties van antropomorfisering in CA-design Begrip over de rol van Conversational Agents in de citizen journey Looptijd 01 januari 2023 - 01 januari 2027 Aanpak Er zullen vier onderzoeken worden uitgevoerd, afgestemd op dimensies van vertrouwen. Deze studies gaan over concepten van vertrouwen, identificeren ‘trust markers’ in mens-bot-dialogen, voeren experimenten uit rond mens-bot-relaties en onderzoeken de rol van CA's in de burgerreis door digitale diensten. Afstudeerproject Chatbots en Voice assistants Tijdens het onderzoeksproject Bots of Trust (BOT) zijn er verschillende mogelijkheden om met studenten samen te werken aan een gerelateerd vraagstuk zoals chatbots en/of voice assistants en hoe deze vorm geven aan vertrouwen in verschillende sectoren.
Er zijn manieren om met behulp van moderne technologie, namelijk chatbots, startende docenten te ondersteunen in de eerste jaren van hun werk. Deze veelbelovende mogelijkheid willen we in de praktijk verkennen en beproeven. Begeleiding van startende docenten op de scholen staat onder druk door het lerarentekort. Startende docenten staan regelmatig voor de uitdaging om zelf te zoeken naar aanvullende kennis over lastige situaties die ze tegenkomen zoals: orde houden in de klas en motiveren van leerlingen. Omdat adequate begeleiding niet altijd voorhanden is willen we onderzoeken of een chatbot voor startende docenten op het gebied van pedagogisch-didactische vaardigheden een bijdrage kan leveren in de begeleiding van startende docenten. Vragen waar we antwoord op willen krijgen zijn: Naar welke kennis zijn startende docenten op zoek en welke formuleringen gebruiken startende docenten om hulp te vragen? Om dit project te kunnen uitvoeren is een consortium van meerdere partijen gecreëerd omdat voor het ontwikkelen van een chatbot kennis en expertise uit verschillende domeinen nodig is zoals onderwijskunde, Conversational Interfaces en ICT. Dit consortium bestaat uit de lerarenopleiding van de Hogeschool Utrecht, twee opleidingsscholen in de regio en Helpr. Dit project levert als eindproduct een werkende versie van een chatbot voor startende docenten in het VO op het gebied van pedagogisch-didactische vragen en een evaluatie onder zowel begeleiders/coaches en startende docenten inzake de ervaring met deze chatbot. Na dit project wordt besloten om wel of niet door te gaan met het doorontwikkelen van deze chatbot en deze breed in de praktijk in te zetten voor ondersteuning van startende docenten in het VO en mogelijk ook in het primair en hoger onderwijs.
-Chatbots are being used at an increasing rate, for instance, for simple Q&A conversations, flight reservations, online shopping and news aggregation. However, users expect to be served as effective and reliable as they were with human-based systems and are unforgiving once the system fails to understand them, engage them or show them human empathy. This problem is more prominent when the technology is used in domains such as health care, where empathy and the ability to give emotional support are most essential during interaction with the person. Empathy, however, is a unique human skill, and conversational agents such as chatbots cannot yet express empathy in nuanced ways to account for its complex nature and quality. This project focuses on designing emotionally supportive conversational agents within the mental health domain. We take a user-centered co-creation approach to focus on the mental health problems of sexual assault victims. This group is chosen specifically, because of the high rate of the sexual assault incidents and its lifetime destructive effects on the victim and the fact that although early intervention and treatment is necessary to prevent future mental health problems, these incidents largely go unreported due to the stigma attached to sexual assault. On the other hand, research shows that people feel more comfortable talking to chatbots about intimate topics since they feel no fear of judgment. We think an emotionally supportive and empathic chatbot specifically designed to encourage self-disclosure among sexual assault victims could help those who remain silent in fear of negative evaluation and empower them to process their experience better and take the necessary steps towards treatment early on.