People with disabilities (PWDs) face discrimination in the hospitality workplace. The aim of this paper is therefore to frame issues surrounding the employment of PWDs in the hospitality industry in normative ethical terms. To achieve this aim, we conducted twenty-eight semi-structured interviews with owners/managers of hospitality businesses and other relevant stakeholders. Drawing on the ethics of justice and ethics of care, our study found that when organisations demonstrated to their employees and other stakeholders the fairness in the procedures taken to implement PWD inclusion actions, the inclusion actions were significantly supported by coworkers, and the organisations were able to achieve distributive justice and care for PWDs. This study, thus, demonstrated that organisational members were willing to take part in caring actions for employees with disabilities (EWDs) not only when they perceived that inclusion actions for EWDs were procedurally fair, but also when they perceived that the PWDs deserved distributive justice outcomes.
MULTIFILE
While the technical application domain seems to be to most established field for AI applications, the field is at the very beginning to identify and implement responsible and fair AI applications. Technical, non-user facing services indirectly model user behavior as a consequence of which unexpected issues of privacy, fairness and lack of autonomy may emerge. There is a need for design methods that take the potential impact of AI systems into account.
Although governments are investing heavily in big data analytics, reports show mixed results in terms of performance. Whilst big data analytics capability provided a valuable lens in business and seems useful for the public sector, there is little knowledge of its relationship with governmental performance. This study aims to explain how big data analytics capability led to governmental performance. Using a survey research methodology, an integrated conceptual model is proposed highlighting a comprehensive set of big data analytics resources influencing governmental performance. The conceptual model was developed based on prior literature. Using a PLS-SEM approach, the results strongly support the posited hypotheses. Big data analytics capability has a strong impact on governmental efficiency, effectiveness, and fairness. The findings of this paper confirmed the imperative role of big data analytics capability in governmental performance in the public sector, which earlier studies found in the private sector. This study also validated measures of governmental performance.
MULTIFILE
De 2SHIFT SPRONG-groep is een samenwerkingsverband van HAN University of Applied Sciences en Fontys Hogescholen. Onze ambitie is het vergroten van eerlijke kansen op gezond leven. Dit doen we door het vormgeven en versterken van gemeenschappen als fundament voor het creëren van eerlijke kansen op gezond leven. Vanuit deze gemeenschappen wordt in co-creatie gewerkt aan structuur (i.e. systeem), sociale en technologische innovaties. Deze ambitie sluit aan bij de centrale missie KIA Gezondheid en Zorg om bij te dragen aan goede gezondheid en het verkleinen van sociaaleconomische gezondheidsverschillen. Ook draagt het bij aan deelmissie 1. het voorkomen van ziekte, waarbij wij uitgaan van het concept Positieve Gezondheid en Leefomgeving. Én het zorgt voor het verplaatsen van ondersteuning en zorg naar de leefomgeving (deelmissie 2), doordat gemeenschappen hiervoor een stevig fundament vormen. De gemeenschap is geoperationaliseerd als een samenwerking tussen inwonersinitiatieven (i.e. informele actoren) én professionals vanuit wonen, welzijn, zorg en gemeenten (i.e. formele actoren) die bestuurlijk en beleidsmatig worden ondersteund. Toenemend wordt een belangrijke rol en meer verantwoordelijkheid toebedeeld aan inwoners en wordt de noodzaak van sectoroverstijgende, inclusieve samenwerking tussen deze actoren in lokale fieldlabs benadrukt. 2SHIFT start daarom in vier fieldlabs: twee dorpen en twee wijken in (midden-)stedelijke gebieden, waar in vergelijking met groot-stedelijk gebied (zoals Amsterdam, Rotterdam, Den Haag en Utrecht) andere dynamieken en mechanismen een rol spelen bij het creëren van eerlijke kansen op een gezond leven. Om impact in onderwijs en praktijk te realiseren werken we nauw samen met studenten, docenten én met inwoners, professionals, bestuurders en beleidsmakers uit wonen, welzijn, zorg en gemeenten én landelijke kennispartners (“quadruple helix”). 2SHIFT brengt transdisciplinaire expertise én verschillende onderzoeksparadigma’s samen in een Learning Community (LC), waarin bestaande kennis en nieuwe kennis wordt samengebracht en ontwikkeld. Over 8 jaar is 2SHIFT een (inter)nationaal erkende onderzoeksgroep die het verschil maakt.
Moderatie van lezersreacties onder nieuwsartikelen is erg arbeidsintensief. Met behulp van kunstmatige intelligentie wordt moderatie mogelijk tegen een redelijke prijs. Aangezien elke toepassing van kunstmatige intelligentie eerlijk en transparant moet zijn, is het belangrijk om te onderzoeken hoe media hieraan kunnen voldoen.Doel Dit promotieproject zal zich richten op de rechtvaardigheid, accountability en transparantie van algoritmische systemen voor het modereren van lezersreacties. Het biedt een theoretisch kader en bruikbare matregelen die nieuwsorganisaties zullen ondersteunen in het naleven van recente beleidsvorming voor een waardegedreven implementatie van AI. Nu steeds meer nieuwsmedia AI gaan gebruiken, moeten ze rechtvaardigheid, accountability en transparantie in hun gebruik van algoritmen meenemen in hun werkwijzen. Resultaten Hoewel moderatie met AI zeer aantrekkelijk is vanuit economisch oogpunt, moeten nieuwsmedia weten hoe ze onnauwkeurigheid en bias kunnen verminderen (fairness), de werking van hun AI bekendmaken (accountability) en de gebruikers laten begrijpen hoe beslissingen via AI worden genomen (transparancy). Dit proefschrift bevordert de kennis over deze onderwerpen. Looptijd 01 februari 2022 - 01 februari 2025 Aanpak De centrale onderzoeksvraag van dit promotieonderzoek is: Hoe kunnen en moeten nieuwsmedia rechtvaardigheid, accountability en transparantie in hun gebruik van algoritmes voor commentmoderatie? Om deze vraag te beantwoorden is het onderzoek opgesplitst in vier deelvragen. Hoe gebruiken nieuwsmedia algoritmes voor het modereren van reacties? Wat kunnen nieuwsmedia doen om onnauwkeurigheid en bias bij het modereren via AI van reacties te verminderen? Wat moeten nieuwsmedia bekendmaken over hun gebruik van moderatie via AI? Wat maakt uitleg van moderatie via AI begrijpelijk voor gebruikers van verschillende niveaus van digitale competentie?
Organisations are increasingly embedding Artificial Intelligence (AI) techniques and tools in their processes. Typical examples are generative AI for images, videos, text, and classification tasks commonly used, for example, in medical applications and industry. One danger of the proliferation of AI systems is the focus on the performance of AI models, neglecting important aspects such as fairness and sustainability. For example, an organisation might be tempted to use a model with better global performance, even if it works poorly for specific vulnerable groups. The same logic can be applied to high-performance models that require a significant amount of energy for training and usage. At the same time, many organisations recognise the need for responsible AI development that balances performance with fairness and sustainability. This KIEM project proposal aims to develop a tool that can be employed by organizations that develop and implement AI systems and aim to do so more responsibly. Through visual aiding and data visualisation, the tool facilitates making these trade-offs. By showing what these values mean in practice, which choices could be made and highlighting the relationship with performance, we aspire to educate users on how the use of different metrics impacts the decisions made by the model and its wider consequences, such as energy consumption or fairness-related harms. This tool is meant to facilitate conversation between developers, product owners and project leaders to assist them in making their choices more explicit and responsible.