Dit artikel is het derde deel van een drieluik over media, sport en ethiek in BVVS-Netwerk. In het eerste deel hebben we allerlei ontwikkelingen met betrekking tot de sportmedia in beeld gebracht (julinummer BVVS-Netwerk). In het tweede deel is het fenomeen 'mediasport' behandeld. In dit afsluitende artikel behandelen we een aantal ethische aspecten van sportmedia en mediasport. In dit artikel zullen de volgende zaken aan de orde komen: - de ethische invloed van sportmedia op de sportwereld; - de ethische invloed van de sportmedia op de sportmediaconsument; - de ethische invloed van de sportmedia op de samenleving en op de jeugd; - sportsterren als rolmodel en de bijdrage van de sportmedia daarbij.
Waarop berust de vakethiek van de journalist, wat houdt ze zoal in en wie ziet toe op de naleving ervan?
In: Jan de Leeuw en Jacinta Kannekens (red.), "Bedrijfsethiek voor HBO". Hoofstuk 12 "Ethiek en toerisme" legt de focus op de rol van de touroperator als regisseur en speler in de toeristische keten. Andere hoofdstukken in dit studieboek bevatten bijdragen van D. Bronkhorst, R. Jeurissen, M. Kaptein, J. Looman en H. Molenaar.
De vraag: ‘Zal kunstmatige intelligentie (AI) mijn werk vervangen?’ is steeds vaker te horen, specifiek ook onder artsen in ziekenhuizen. AI wordt tegenwoordig ingezet voor allerlei doeleinden in de zorg, variërend van diagnoses stellen tot opereren. De belofte is dat AI de zorg efficiënter en nauwkeuriger maakt, maar er heerst ook onzekerheid onder artsen over de impact op hun werk. Om de vaak gestelde vraag te kunnen beantwoorden of en hoe AI het werk van de arts vervangt, is inzicht nodig in wat dat werk precies inhoudt. Daarvoor introduceren we het woord ‘vakmanschap’. Vakmanschap staat voor bekwaamheid in een vak. We onderzoeken hoe AI het vakmanschap van de arts beïnvloedt en houden rekening met diverse medische specialismen en typen AI. Vervolgens maken we de vertaalslag naar hoe impact van AI op vakmanschap mee te nemen in een verantwoord ontwerp- en implementatieproces van AI. Ons consortium vertegenwoordigt de stem van de arts in ziekenhuizen, het perspectief rondom ‘vakmanschap’ en een veranderende arbeidsmarkt, het perspectief van de AI-ontwikkelaar, de methodische kennis rondom de KEM Ethiek & Verantwoordelijkheid en het mensgericht ontwerpen perspectief. Uiteindelijk beogen we zorg duurzaam te kunnen verlenen met een optimale interactie tussen arts en AI.
Journalisten die veel interactie met hun publiek hebben (zoals consumentenprogramma’s) ontvangen via diverse, vaak besloten, kanalen (Facebook Messenger, WhatsApp, e-mail, fora) een grote stroom tips en/of berichten. Radio Dabanga, bijvoorbeeld, een op Soedan gericht radiostation in Amsterdam en ook een redactie met veel publieksinteractie, krijgt alleen al via WhatsApp 500-3000 berichten per dag. Met een redactie van twee mensen kan niet alles gelezen worden. Maar zelfs als dat kon, dan kan nog niet alles geverifieerd. Het gevolg is dat berichten gemist worden, dat Dabanga-journalisten vooral zoeken naar hun al bekende afzenders, en dat zij permanent het gevoel hebben belangrijke informatie te missen, waardoor zij hun contacten tekort te doen. Dit consortium onderzoekt of data science technieken hierbij kunnen helpen. Natural language processing technieken kunnen helpen de berichtenstroom beter te structureren waardoor tips over laag-frequente onderwerpen niet over het hoofd gezien worden. Recommender systemen kunnen ingezet worden om een betrouwbaarheidsindex te ontwerpen voor tot nog toe onbekende afzenders. Het resultaat is dan minder ondergesneeuwde tips en minder ondergesneeuwde afzenders. De uitkomsten worden getest met journalistenpanels. Bij goede resultaten uit bovenstaande onderzoeken, bouwt het consortium een prototype van de Berichtentemmer: een tool die helpt berichten uit diverse kanalen per onderwerp te structureren. Daardoor kunnen journalisten hun netwerken beter en efficiënter benutten. Bij het bouwen van deze tool hoort ook dat de gebruikte algoritmen transparant moeten zijn voor de journalist en de presentatie van de resultaten niet sturend mag zijn. Het consortium bestaat daarom uit een ‘Data science’-projectgroep voor het ontwerpen en testen van de algoritmen, en uit een ‘Ethiek & design’-projectgroep voor het ontwerpen van richtlijnen over transparantie van de algoritmen en de datavisualisatie. Tenslotte is er een ontwikkelgroep bestaande uit een combinatie van studenten en professional developers. Zij bouwen het prototype.
Dit promotieproject richt zich op Conversational Agents en hun rol in de dienstverlening in het publieke domein. Geautomatiseerde vormen van communicatie komen steeds vaker voor. Dit roept vragen op over het opbouwen van relaties, vertrouwen, vormen van servicegebruik en data-ethiek.Doel De interdisciplinaire studie onderzoekt kritisch hoe de interacties van burgers met Conversational Agents het vertrouwen in publieke organisaties vormgeven. Resultaten Inzichten over huidig en eerder onderzoek naar vertrouwen en Conversational Agents door middel van een systematisch literatuuronderzoek Identificatie van ‘trust markers’ in gebruikersinteracties met bots Inzichten over opvattingen en reacties van burgers op verschillende gradaties van antropomorfisering in CA-design Begrip over de rol van Conversational Agents in de citizen journey Looptijd 01 januari 2023 - 01 januari 2027 Aanpak Er zullen vier onderzoeken worden uitgevoerd, afgestemd op dimensies van vertrouwen. Deze studies gaan over concepten van vertrouwen, identificeren ‘trust markers’ in mens-bot-dialogen, voeren experimenten uit rond mens-bot-relaties en onderzoeken de rol van CA's in de burgerreis door digitale diensten. Afstudeerproject Chatbots en Voice assistants Tijdens het onderzoeksproject Bots of Trust (BOT) zijn er verschillende mogelijkheden om met studenten samen te werken aan een gerelateerd vraagstuk zoals chatbots en/of voice assistants en hoe deze vorm geven aan vertrouwen in verschillende sectoren.