Big data heeft niet alleen geleid tot uitdagende technische vraagstukken, ook gaat het gepaard met allerlei nieuwe ethische en morele kwesties. Om verantwoord met big data om te gaan, moet ook over deze kwesties worden nagedacht. Want slecht datagebruik kan nadelige gevolgen hebben voor grote groepen mensen en voor organisaties. In de slotaflevering van deze serie verkennen Klaas Jan Mollema en Niek van Antwerpen op een pragmatische manier de ethische kant van big data, zonder te blijven steken in de negatieve effecten ervan.
DOCUMENT
Datagebruik en omgang met persoonsgegevens gaan in bijna elke toekomstige baan op hbo-niveau een rol spelen. Dat betekent dat alle instituten van de Hogeschool Utrecht moeten nadenken over hoe zij hun toekomstige professionals hierop gaan voorbereiden. De vraag is of dat op dit moment adequaat en efficiënt gebeurt.
DOCUMENT
Humans use metaphors in thinking. Most metaphors are visual. In processing information stimuli the mind depends partly on visual codes. Information is processed and stored through two channels: one for non-verbal information and another for verbal information. The two different areas of information in the brain are interconnected. The information is stored in patterns that form an inner representation of how individuals perceive their reality and their self. The active processing of new information, remembering and the self-image are related phenomena, that influence each other, sometimes leading to biased interpretation or even reconstruction of contents in each of these areas. Imagination, expectations and anticipations of the future and memories are the more active manifestations of this process. In this process mimesis plays an important role. Mimesis is the imitation of reality in play, story-telling or creating images of how things should look like in the future. Through mimesis people can anticipate on roles in social life, or appropriate experiences from someone else and relate them to one’s own life story. When this happens the information is related to the self through processes of association and becomes ‘Erfahrung’.
DOCUMENT
Dit promotieproject richt zich op Conversational Agents en hun rol in de dienstverlening in het publieke domein. Geautomatiseerde vormen van communicatie komen steeds vaker voor. Dit roept vragen op over het opbouwen van relaties, vertrouwen, vormen van servicegebruik en data-ethiek.
Dit promotieproject richt zich op Conversational Agents en hun rol in de dienstverlening in het publieke domein. Geautomatiseerde vormen van communicatie komen steeds vaker voor. Dit roept vragen op over het opbouwen van relaties, vertrouwen, vormen van servicegebruik en data-ethiek.Doel De interdisciplinaire studie onderzoekt kritisch hoe de interacties van burgers met Conversational Agents het vertrouwen in publieke organisaties vormgeven. Resultaten Inzichten over huidig en eerder onderzoek naar vertrouwen en Conversational Agents door middel van een systematisch literatuuronderzoek Identificatie van ‘trust markers’ in gebruikersinteracties met bots Inzichten over opvattingen en reacties van burgers op verschillende gradaties van antropomorfisering in CA-design Begrip over de rol van Conversational Agents in de citizen journey Looptijd 01 januari 2023 - 01 januari 2027 Aanpak Er zullen vier onderzoeken worden uitgevoerd, afgestemd op dimensies van vertrouwen. Deze studies gaan over concepten van vertrouwen, identificeren ‘trust markers’ in mens-bot-dialogen, voeren experimenten uit rond mens-bot-relaties en onderzoeken de rol van CA's in de burgerreis door digitale diensten. Afstudeerproject Chatbots en Voice assistants Tijdens het onderzoeksproject Bots of Trust (BOT) zijn er verschillende mogelijkheden om met studenten samen te werken aan een gerelateerd vraagstuk zoals chatbots en/of voice assistants en hoe deze vorm geven aan vertrouwen in verschillende sectoren.
Werken met AI roept vraagstukken op rond verantwoordelijk gebruik. Het SIPR-lectoraat ontwikkelt een AI gestuwde leeromgeving voor communicatieprofessionals, volgens de laatste inzichten van het Responsible AI framework. Maar wat doe je als blijkt dat een verantwoordelijk ingerichte omgeving misvattingen over AI versterkt? Dan ga je van Responsible naar Explainable AI.