This document presents the findings of a study into methods that can help counterterrorism professionals make decisions about ethical problems. The study was commissioned by the Research and Documentation Centre (Wetenschappelijk Onderzoeken Documentatiecentrum, WODC) of the Dutch Ministry of Security and Justice (Ministerie van Veiligheid en Justitie), on behalf of the National Coordinator for Counterterrorism and Security (Nationaal Coördinator Terrorismebestrijding en Veiligheid,NCTV). The research team at RAND Europe was complemented by applied ethics expert Anke van Gorp from the Research Centre for Social Innovation (Kenniscentrum Sociale Innovatie) at Hogeschool Utrecht. The study provides an inventory of methods to support ethical decision-making in counterterrorism, drawing on the experience of other public sectors – healthcare, social work, policing and intelligence – and multiple countries, primarily the Netherlands and the United Kingdom
Een vraagarticulatieproces met projectmanagers en -leiders uit private en Triple-Helix organisaties laat zien dat zij behoefte hebben aan tools voor: 1. Het bepalen van de juiste incentives om stakeholders actief te betrekken in multi-sector collaboratieve innovatieprojecten (verder verwezen als innovatieprojecten), en 2. Het concreet, transparant en op één lijn te krijgen van de belangen van de partners. Vandaar dat dit project betreft het doorontwikkelen van het Degrees of Engagement diagram (DoE-diagram), een tool voor het managen van stakeholder engagement in innovatieprojecten voor het behalen van de maatschappelijke opgaven. Hiermee sluit het project aan bij de programmalijn ‘rollen, belangen en coördinatie’ van de Kennis en Innovatieagenda van de missie Maatschappelijke Verdienvermogen- thema’s Klimaat & Energie en Circulaire economie. Het consortium bestaat uit de Hogeschool van Amsterdam (HvA), KplusV en Amsterdam Smart City (ASC). De HvA ontwikkelde het DoE-diagram. Voor het identificeren van stakeholders bevat het DoE-diagram attributen op project- en organisatieniveau. In dit project wordt het DoE doorontwikkeld door onderzoek te doen naar: 1. De attributen op individuniveau en potentiele nieuwe attributen op project- en organisatieniveau, 2. De mate waarin deze attributen invloed hebben op het bepalen van de passende incentives, de concretisering van de partnerbelangen en al dan niet succesvolle verloop van innovatieprojecten, 3. Een verkenning van een digitale versie van het DoE voor het managen van in- en uitstappen van partners. Hiermee beoogt het project twee doelen: 1. Inzicht verkrijgen in stakeholderconfiguraties voor het ondersteunen van beslissingen met betrekking tot stakeholder-engagement, 2. Bouwen van een consortium van partijen die vervolg aan het project gaan geven door longitudinaal onderzoek te doen naar de inzet van de uitbreiding van het DoE-diagram en het maken van een werkend prototype en testen van de digitale versie ervan.
Bedrijven, waaronder telecomproviders, vertrouwen steeds meer op complexe AI-systemen. Het gebrek aan interpreteerbaarheid dat zulke systemen vaak introduceren zorgt voor veel uitdagingen om het onderliggende besluitvormingsproces te begrijpen. Vertrouwen in AI-systemen is belangrijk omdat het bijdraagt aan acceptatie en adoptie onder gebruikers. Het vakgebied Explainable AI (XAI) speelt hierbij een cruciale rol door transparantie en uitleg aan gebruikers te bieden voor de beslissingen en werking van zulke systemen.Doel Bij AI-systemen zijn gewoonlijk verschillende stakeholders betrokken, die elk een unieke rol hebben met betrekking tot deze systemen. Als gevolg hiervan varieert de behoefte voor uitleg afhankelijk van wie het systeem gebruikt. Het primaire doel van dit onderzoek is het genereren en evalueren van op stakeholder toegesneden uitleg voor use cases in de telecomindustrie. Door best practices te identificeren, nieuwe explainability tools te ontwikkelen en deze toe te passen in verschillende use cases, is het doel om waardevolle inzichten op te doen. Resultaten Resultaten omvatten het identificeren van de huidige best practices voor het genereren van betekenisvolle uitleg en het ontwikkelen van op maat gemaakte uitleg voor belanghebbenden voor telecom use-cases. Looptijd 01 september 2023 - 30 augustus 2027 Aanpak Het onderzoek begint met een literatuurstudie, gevolgd door de identificatie van mogelijke use-cases en het in kaart brengen van de behoeften van stakeholders. Vervolgens zullen prototypes worden ontwikkeld en hun vermogen om betekenisvolle uitleg te geven, zal worden geëvalueerd.
Bedrijven, waaronder telecomproviders, vertrouwen steeds meer op complexe AI-systemen. Het gebrek aan interpreteerbaarheid dat zulke systemen vaak introduceren zorgt voor veel uitdagingen om het onderliggende besluitvormingsproces te begrijpen. Vertrouwen in AI-systemen is belangrijk omdat het bijdraagt aan acceptatie en adoptie onder gebruikers. Het vakgebied Explainable AI (XAI) speelt hierbij een cruciale rol door transparantie en uitleg aan gebruikers te bieden voor de beslissingen en werking van zulke systemen.