Artificial Intelligence (AI) is increasingly shaping the way we work, live, and interact, leading to significant developments across various sectors of industry, including media, finance, business services, retail and education. In recent years, numerous high-level principles and guidelines for ‘responsible’ or ‘ethical’ AI have been formulated. However, these theoretical efforts often fall short when it comes to addressing the practical challenges of implementing AI in real-world contexts: Responsible Applied AI. The one-day workshop on Responsible Applied Artificial InTelligence (RAAIT) at HHAI 2024: Hybrid Human AI Systems for the Social Good in Malmö, Sweden, brought together researchers studying various dimensions of Responsible AI in practice.This was the second RAAIT workshop, following the first edition at the 2023 European Conference on Artificial Intelligence (ECAI) in Krakow, Poland.
MULTIFILE
Purpose: Artificial intelligence (AI) and automation are currently changing human life with a great implication in the communication field. This research focusses on understanding the current and growing impact of AI and automation in the role of communication professionals to identify what skills and training are needed to face its impacts leading to a recommendation. Design/methodology/approach: The research involves methodological triangulation, analysing and comparing data gathered from consulting with experts using the Delphi method, focus group with communication students, and literature review. Findings: Findings show that the likely impacts are on the one hand the enhancing of efficiency and productivity, as well as freeing communication professionals to focus on the creative side, strategy and analytical thinking, on the other hand, repetitive and low-level jobs could be lost, being higher position jobs or those involving creativity and decision making harder to automate. Two types of training are needed: to gather experience with the current AI and automated tools, and to focus on developing human qualities that AI cannot replicate. Originality/value: The outcomes of this research are valuable to help current and future communication practitioners, as well as organisations, to be one step ahead and survive the age AI and automation, being aware of its current and near-future impacts. The paper offers a list of recommended soft and technical skills, as well as training needed, categorizing them in low, medium and high priority.
People tend to be hesitant toward algorithmic tools, and this aversion potentially affects how innovations in artificial intelligence (AI) are effectively implemented. Explanatory mechanisms for aversion are based on individual or structural issues but often lack reflection on real-world contexts. Our study addresses this gap through a mixed-method approach, analyzing seven cases of AI deployment and their public reception on social media and in news articles. Using the Contextual Integrity framework, we argue that most often it is not the AI technology that is perceived as problematic, but that processes related to transparency, consent, and lack of influence by individuals raise aversion. Future research into aversion should acknowledge that technologies cannot be extricated from their contexts if they aim to understand public perceptions of AI innovation.
LINK
Artrose van de heup en knie is één van de meest voorkomende en snel groeiende chronische aandoeningen. Het belangrijk dat mensen met artrose, op het juiste moment, het juiste persoonlijke advies over zelfzorg en de mogelijkheden op gebied van professionele zorg krijgen. Daarom ontwikkelen we vanuit het onderzoeksproject SMART stapsgewijs, met input van eindgebruikers, experts en literatuur, een slimme (AI-ondersteunde) zelfmanagement-app.
In afgelopen jaren zijn er ten behoeve van het journalistieke informatieverzamelingsproces steeds meer digitale, geautomatiseerde en zelflerende ofwel zogenoemde AI (artificial intelligence) tools op de markt verschenen. Wij onderzoeken hoe AI-tools in journalistieke researchproces gebruikt worden en of dat invloed heeft op de selectie en gebruik van informatie en bronnen. Doel Dit onderzoeksproject heeft als doel om na te gaan wat de gevolgen zijn van het gebruik van door algoritmes gestuurde tools op de onafhankelijkheid, objectiviteit, betrouwbaarheid en transparantie van de journalistiek en hoe het bewustzijn over de werking van algoritmes onder journalisten vergroot kan worden. Resultaten Dit onderzoek loopt momenteel nog Looptijd 01 juli 2020 - 31 juli 2022 Aanpak Het is eerst van belang om via interviews na te gaan hoe journalisten AI, bewust of onbewust, gebruiken. Daarna worden op redacties online observaties gedaan en experimenten uitgevoerd om na te gaan wat het effect is op het eindproduct van de journalist. Tot slot, wordt een tool ontworpen rondom de transparantie en werking van AI in het journalistiek.
Dit onderzoeksproject heeft als doel om na te gaan wat de gevolgen zijn van het ge-bruik van door algoritmes gestuurde tools op de onafhankelijkheid, objectiviteit, be-trouwbaarheid en transparantie van de journalistiek en hoe het bewustzijn over de werking van algoritmes onder journalisten vergroot kan worden. Een van de grote problemen van de huidige journalist is de overdosis aan informatie. Terwijl nieuwsmakers voorheen, gewapend met pen en papier, met hun informanten in gesprek gingen en een overzichtelijke hoeveelheid (papieren) documenten door-spitten, is het tegenwoordig onmogelijk zicht te houden op alle beschikbare informa-tie. Het wereldwijde datavolume neemt naar verwachting exponentieel toe: wat in 2013 nog 4.4 zettabyte was, zal in 2025 gegroeid zijn naar 163 zettabyte. Maar soft-ware-tools die zoek- en selectieprocessen automatiseren, faciliteren het werk van journalisten. In afgelopen jaren zijn er ten behoeve van het journalistieke research-, redactie- en verificatieproces steeds meer digitale, geautomatiseerde en zelflerende ofwel zogenoemde AI (artificial intelligence) tools op de markt verschenen. Hoewel AI-tools en zoekmachines efficiënt zijn in het ordenen, selecteren en verifi-eren van data, zijn deze tools verre van objectief. Dit komt met name door de achter-liggende algoritmes. Die zijn niet neutraal. Vandaar deze kritische blik op de inzet van geautomatiseerde tools in de journalistiek, nodig vooral in deze zogenaamde ‘post-truth’-tijden. Door alle ophef over de verspreiding van desinformatie, staat de journa-listiek onder druk. De noodzaak van objectieve, relevante en onafhankelijke journalis-tiek is groter dan ooit. Uit gesprekken met journalisten en data-experts uit de journalistieke praktijk blijkt dat velen de werking van algoritmes niet begrijpen, laat staan dat ze door hebben hoezeer ze daardoor bij het vinden, selecteren en verifiëren van informatie gestuurd worden. Vandaar dit onderzoek: na te gaan hoe journalisten AI kunnen inzetten zonder dat het de journalistieke waarden van onafhankelijkheid, betrouwbaarheid en transparantie ondermijnt.