This paper presents a comprehensive study on assisting new AI programmers in making responsible choices while programming. The research focused on developing a process model, incorporating design patterns, and utilizing an IDE-based extension to promote responsible Artificial Intelligence (AI) practices. The experiment evaluated the effectiveness of the process model and extension, specifically examining their impact on the ability to make responsible choices in AI programming. The results revealed that the use of the process model and extension significantly enhanced the programmers' understanding of Responsible AI principles and their ability to apply them in code development. These findings support existing literature highlighting the positive influence of process models and patterns on code development capabilities. The research further confirmed the importance of incorporating Responsible AI values, as asking relevant questions related to these values resulted in responsible AI practices. Furthermore, the study contributes to bridging the gap between theoretical knowledge and practical application by incorporating Responsible AI values into the centre stage of the process model. By doing so, the research not only addresses the existing literature gap, but also ensures the practical implementation of Responsible AI principles.
MULTIFILE
This study provides a comprehensive analysis of the AI-related skills and roles needed to bridge the AI skills gap in Europe. Using a mixed-method research approach, this study investigated the most in-demand AI expertise areas and roles by surveying 409 organizations in Europe, analyzing 2,563 AI-related job advertisements, and conducting 24 focus group sessions with 145 industry and policy experts. The findings underscore the importance of both general technical skills in AI related to big data, machine learning and deep learning, cyber and data security, large language models as well as AI soft skills such as problemsolving and effective communication. This study sets the foundation for future research directions, emphasizing the importance of upskilling initiatives and the evolving nature of AI skills demand, contributing to an EU-wide strategy for future AI skills development.
MULTIFILE
In the past few years, the EU has shown a growing commitment to address the rapid transformations brought about by the latest Artificial Intelligence (AI) developments by increasing efforts in AI regulation. Nevertheless, despite the growing body of technical knowledge and progress, the governance of AI-intensive technologies remains dynamic and challenging. A mounting chorus of experts expresses reservations about an overemphasis on regulation in Europe. Among their core arguments is the concern that such an approach might hinder innovation within the AI arena. This concern resonates particularly strongly compared to the United States and Asia, where AI-driven innovation appears to be surging ahead, potentially leaving Europe behind. This paper emphasizes the need to balance certification and governance in AI to foster ethical innovation and enhance the reliability and competitiveness of European technology. It explores recent AI regulations and upcoming European laws, underscoring Europe’s role in the global AI landscape. The authors analyze European governance approaches and their impact on SMEs and startups, offering a comparative view of global regulatory efforts. The paper highlights significant global AI developments from the past year, focusing on Europe’s contributions. We address the complexities of creating a comprehensive, human-centred AI master’s programme for higher education. Finally, we discuss how Europe can seize opportunities to promote ethical and reliable AI progress through education, fostering a balanced approach to regulation and enhancing young professionals’ understanding of ethical and legal aspects.
LINK
Artificiële Intelligentie (AI) speelt een steeds belangrijkere rol in mediaorganisaties bij de automatische creatie, personalisatie, distributie en archivering van mediacontent. Dit gaat gepaard met vragen en bezorgdheid in de maatschappij en de mediasector zelf over verantwoord gebruik van AI. Zo zijn er zorgen over discriminatie van bepaalde groepen door bias in algoritmes, over toenemende polarisatie door de verspreiding van radicale content en desinformatie door algoritmes en over schending van privacy bij een niet transparante omgang met data. Veel mediaorganisaties worstelen met de vraag hoe ze verantwoord met AI-toepassingen om moeten gaan. Mediaorganisaties geven aan dat bestaande ethische instrumenten voor verantwoorde AI, zoals de EU “Ethics Guidelines for trustworthy AI” (European Commission, 2019) en de “AI Impact Assessment” (ECP, 2018) onvoldoende houvast bieden voor het ontwerp en de inzet van verantwoorde AI, omdat deze instrumenten niet specifiek zijn toegespitst op het mediadomein. Hierdoor worden deze ethische instrumenten nog nauwelijks toegepast in de mediasector, terwijl mediaorganisaties aangeven dat daar wel behoefte aan is. Het doel van dit project is om mediaorganisaties te ondersteunen en begeleiden bij het inbedden van verantwoorde AI in hun organisaties en bij het ontwerpen, ontwikkelen en inzetten van verantwoorde AI-toepassingen, door domeinspecifieke ethische instrumenten te ontwikkelen. Dit gebeurt aan de hand van drie praktijkcasussen die zijn aangedragen door mediaorganisaties: pluriforme aanbevelingssystemen, inclusieve spraakherkenningssystemen voor de Nederlandse taal en collaboratieve productie-ondersteuningssystemen. De ontwikkeling van de ethische instrumenten wordt uitgevoerd met een Research-through-Design aanpak met meerdere iteraties van informatie verzamelen, analyseren prototypen en testen. De beoogde resultaten van dit praktijkgerichte onderzoek zijn: 1) nieuwe kennis over het ontwerpen van verantwoorde AI in mediatoepassingen, 2) op media toegespitste ethische instrumenten, en 3) verandering in de deelnemende mediaorganisaties ten aanzien van verantwoorde AI door nauwe samenwerking met praktijkpartners in het onderzoek.
The IMPULS-2020 project DIGIREAL (BUas, 2021) aims to significantly strengthen BUAS’ Research and Development (R&D) on Digital Realities for the benefit of innovation in our sectoral industries. The project will furthermore help BUas to position itself in the emerging innovation ecosystems on Human Interaction, AI and Interactive Technologies. The pandemic has had a tremendous negative impact on BUas industrial sectors of research: Tourism, Leisure and Events, Hospitality and Facility, Built Environment and Logistics. Our partner industries are in great need of innovative responses to the crises. Data, AI combined with Interactive and Immersive Technologies (Games, VR/AR) can provide a partial solution, in line with the key-enabling technologies of the Smart Industry agenda. DIGIREAL builds upon our well-established expertise and capacity in entertainment and serious games and digital media (VR/AR). It furthermore strengthens our initial plans to venture into Data and Applied AI. Digital Realities offer great opportunities for sectoral industry research and innovation, such as experience measurement in Leisure and Hospitality, data-driven decision-making for (sustainable) tourism, geo-data simulations for Logistics and Digital Twins for Spatial Planning. Although BUas already has successful R&D projects in these areas, the synergy can and should significantly be improved. We propose a coherent one-year Impuls funded package to develop (in 2021): 1. A multi-year R&D program on Digital Realities, that leads to, 2. Strategic R&D proposals, in particular a SPRONG/sleuteltechnologie proposal; 3. Partnerships in the regional and national innovation ecosystem, in particular Mind Labs and Data Development Lab (DDL); 4. A shared Digital Realities Lab infrastructure, in particular hardware/software/peopleware for Augmented and Mixed Reality; 5. Leadership, support and operational capacity to achieve and support the above. The proposal presents a work program and management structure, with external partners in an advisory role.
Steeds meer organisaties vinden het belangrijk om ‘ethisch verantwoorde’ AI-toepassingen te ontwikkelen. Maar wat is precies ethisch verantwoord? En hoe ontwerp je AI-systemen die aan ethische richtlijnen voldoen? In dit coöperatieve spel ontwerp je samen, op basis van de ethische principes opgesteld door de EU, ethisch verantwoorde AI-toepassingen.Doel In het spel worden de spelers benaderd door de startup ‘Ethics Inc.’ om een betrouwbare AI-toepassing te ontwikkelen die voldoet aan Europese richtlijnen. De spelers vormen samen een denktank om de startup te adviseren over hoe zij deze toepassing het best kunnen ontwikkelen. Het spel eindigt als er consensus is bereikt na één of meer rondes. Samen maak je een vertaalslag van abstracte waarden naar de specifieke gebruikerscontext. Het spel is gebaseerd op de EU Ethics Guidelines For Trustworthy AI welke ook ten grondslag ligt aan de aankomende EU-wetgeving rondom AI. Resultaten Een coöperatief spel waarin er samen ethisch verantwoorde AI-toepassingen ontworpen worden (3 tot 8 spelers, 75 minuten). Je kunt een fysiek exemplaar bestellen door een mail te sturen naar info@stt.nl. De kaarten zijn ook als PDF te downloaden om zelf uit te printen. Er is ook een digitale versie van het spel gemaakt, deze wordt op het moment getest en doorontwikkeld. Het gedachtegoed achter het ontwerpspel is verder uitgediept in het paper An Agile Framework for Trustworthy AI welke is geaccepteerd voor de ECAI-2020 Workshop “New Foundations for Human-Centered AI”. Looptijd 01 maart 2020 - 31 december 2022 Aanpak De Stichting Toekomstbeeld der Techniek STT heeft het fysieke spel samen met het lectoraat Artificial Intelligence (HU) ontwikkeld, waarbij een grafisch vormgever een aansprekende stijl heeft neergezet. Daarnaast is de Stichting Koninklijk Nederlands Normalisatie Instituut (NEN) betrokken als partner. In 2021 en verder ligt de focus van dit project op een digitale versie van het spel, waarmee het breder ingezet kan worden in de praktijk. Impact voor het onderwijs Voor studenten is Ethics Inc. een tool om van begin af aan AI-toepassingen te ontwerpen die de Europese AI richtlijnen meenemen (Ethics by design). Er lopen pilots bij verschillende opleidingen om de inzet van het spel ook daar te testen.