Bedrijfsjournalisten moeten dagelijks vele ethische keuzes maken. Wat doe je als je directeur iets in je blad wil plaatsen waarvan je weet dat het niet helemaal of helemaal niet klopt? Wanneer neem je geïnterviewden tegen zichzelf in bescherming? Hoe vind je een goede balans tussen organisatiebelangen en lezersbelangen?Welke correcties in je teksten accepteer je wel en welke niet? Is een anonieme column van een medewerker wel eerlijk? In dit boekje gaat de schrijver nader in op ethische aspecten van de bedrijfsjournalistiek. Hij belicht hoe in de vakgebieden communicatie en journalistiek tegen ethiek wordt aangekeken, en maakt een vertaling naar de bedrijfsjournalistieke praktijk. Het essay is een pleidooi voor 'professionele integriteit' als tegenhanger van het oude adagium van 'redactionele onafhankelijkheid'.
De vraag: ‘Zal kunstmatige intelligentie (AI) mijn werk vervangen?’ is steeds vaker te horen, specifiek ook onder artsen in ziekenhuizen. AI wordt tegenwoordig ingezet voor allerlei doeleinden in de zorg, variërend van diagnoses stellen tot opereren. De belofte is dat AI de zorg efficiënter en nauwkeuriger maakt, maar er heerst ook onzekerheid onder artsen over de impact op hun werk. Om de vaak gestelde vraag te kunnen beantwoorden of en hoe AI het werk van de arts vervangt, is inzicht nodig in wat dat werk precies inhoudt. Daarvoor introduceren we het woord ‘vakmanschap’. Vakmanschap staat voor bekwaamheid in een vak. We onderzoeken hoe AI het vakmanschap van de arts beïnvloedt en houden rekening met diverse medische specialismen en typen AI. Vervolgens maken we de vertaalslag naar hoe impact van AI op vakmanschap mee te nemen in een verantwoord ontwerp- en implementatieproces van AI. Ons consortium vertegenwoordigt de stem van de arts in ziekenhuizen, het perspectief rondom ‘vakmanschap’ en een veranderende arbeidsmarkt, het perspectief van de AI-ontwikkelaar, de methodische kennis rondom de KEM Ethiek & Verantwoordelijkheid en het mensgericht ontwerpen perspectief. Uiteindelijk beogen we zorg duurzaam te kunnen verlenen met een optimale interactie tussen arts en AI.
Journalisten die veel interactie met hun publiek hebben (zoals consumentenprogramma’s) ontvangen via diverse, vaak besloten, kanalen (Facebook Messenger, WhatsApp, e-mail, fora) een grote stroom tips en/of berichten. Radio Dabanga, bijvoorbeeld, een op Soedan gericht radiostation in Amsterdam en ook een redactie met veel publieksinteractie, krijgt alleen al via WhatsApp 500-3000 berichten per dag. Met een redactie van twee mensen kan niet alles gelezen worden. Maar zelfs als dat kon, dan kan nog niet alles geverifieerd. Het gevolg is dat berichten gemist worden, dat Dabanga-journalisten vooral zoeken naar hun al bekende afzenders, en dat zij permanent het gevoel hebben belangrijke informatie te missen, waardoor zij hun contacten tekort te doen. Dit consortium onderzoekt of data science technieken hierbij kunnen helpen. Natural language processing technieken kunnen helpen de berichtenstroom beter te structureren waardoor tips over laag-frequente onderwerpen niet over het hoofd gezien worden. Recommender systemen kunnen ingezet worden om een betrouwbaarheidsindex te ontwerpen voor tot nog toe onbekende afzenders. Het resultaat is dan minder ondergesneeuwde tips en minder ondergesneeuwde afzenders. De uitkomsten worden getest met journalistenpanels. Bij goede resultaten uit bovenstaande onderzoeken, bouwt het consortium een prototype van de Berichtentemmer: een tool die helpt berichten uit diverse kanalen per onderwerp te structureren. Daardoor kunnen journalisten hun netwerken beter en efficiënter benutten. Bij het bouwen van deze tool hoort ook dat de gebruikte algoritmen transparant moeten zijn voor de journalist en de presentatie van de resultaten niet sturend mag zijn. Het consortium bestaat daarom uit een ‘Data science’-projectgroep voor het ontwerpen en testen van de algoritmen, en uit een ‘Ethiek & design’-projectgroep voor het ontwerpen van richtlijnen over transparantie van de algoritmen en de datavisualisatie. Tenslotte is er een ontwikkelgroep bestaande uit een combinatie van studenten en professional developers. Zij bouwen het prototype.
Dit promotieproject richt zich op Conversational Agents en hun rol in de dienstverlening in het publieke domein. Geautomatiseerde vormen van communicatie komen steeds vaker voor. Dit roept vragen op over het opbouwen van relaties, vertrouwen, vormen van servicegebruik en data-ethiek.Doel De interdisciplinaire studie onderzoekt kritisch hoe de interacties van burgers met Conversational Agents het vertrouwen in publieke organisaties vormgeven. Resultaten Inzichten over huidig en eerder onderzoek naar vertrouwen en Conversational Agents door middel van een systematisch literatuuronderzoek Identificatie van ‘trust markers’ in gebruikersinteracties met bots Inzichten over opvattingen en reacties van burgers op verschillende gradaties van antropomorfisering in CA-design Begrip over de rol van Conversational Agents in de citizen journey Looptijd 01 januari 2023 - 01 januari 2027 Aanpak Er zullen vier onderzoeken worden uitgevoerd, afgestemd op dimensies van vertrouwen. Deze studies gaan over concepten van vertrouwen, identificeren ‘trust markers’ in mens-bot-dialogen, voeren experimenten uit rond mens-bot-relaties en onderzoeken de rol van CA's in de burgerreis door digitale diensten. Afstudeerproject Chatbots en Voice assistants Tijdens het onderzoeksproject Bots of Trust (BOT) zijn er verschillende mogelijkheden om met studenten samen te werken aan een gerelateerd vraagstuk zoals chatbots en/of voice assistants en hoe deze vorm geven aan vertrouwen in verschillende sectoren.