Het rapport Naar een inclusieve werkomgeving. Inzichten vanuit (levens)verhalen en paradoxen uit de praktijk dat door onderzoekers van Hogeschool Inholland en de Vrije Universiteit Amsterdam in de periode mei 2019 – november 2021 is uitgevoerd, met een subsidie van Instituut Gak, biedt op een bijzondere manier inzicht in het fenomeen ongelijke kansen op de Nederlandse arbeidsmarkt.
DOCUMENT
Valuation judgement bias has been a research topic for several years due to its proclaimed effect on valuation accuracy. However, little is known on the emphasis of literature on judgement bias, with regard to, for instance, research methodologies, research context and robustness of research evidence. A synthesis of available research will establish consistency in the current knowledge base on valuer judgement, identify future research opportunities and support decision-making policy by educational and regulatory stakeholders how to cope with judgement bias. This article therefore, provides a systematic review of empirical research on real estate valuer judgement over the last 30 years. Based on a number of inclusion and exclusion criteria, we have systematically analysed 32 relevant papers on valuation judgement bias. Although we find some consistency in evidence, we also find the underlying research to be biased; the methodology adopted is dominated by a quantitative approach; research context is skewed by timing and origination; and research evidence seems fragmented and needs replication. In order to obtain a deeper understanding of valuation judgement processes and thus extend the current knowledge base, we advocate more use of qualitative research methods and scholars to adopt an interpretative paradigm when studying judgement behaviour.
DOCUMENT
Het woord ‘bias’ komt naar voren in zowel maatschappelijk als wetenschappelijk debat over de inzet van artificiële intelligentie (ai). Het verwijst doorgaans naar een vooroordeel dat iets of iemand vaak onbedoeld heeft. Wanneer dit vooroordeel leidt tot een afwijking in besluitvorming vergeleken met een situatie wanneer dit vooroordeel er niet zou zijn, dan is een bias doorgaans onwenselijk.
LINK
Artificiële Intelligentie (AI) speelt een steeds belangrijkere rol in mediaorganisaties bij de automatische creatie, personalisatie, distributie en archivering van mediacontent. Dit gaat gepaard met vragen en bezorgdheid in de maatschappij en de mediasector zelf over verantwoord gebruik van AI. Zo zijn er zorgen over discriminatie van bepaalde groepen door bias in algoritmes, over toenemende polarisatie door de verspreiding van radicale content en desinformatie door algoritmes en over schending van privacy bij een niet transparante omgang met data. Veel mediaorganisaties worstelen met de vraag hoe ze verantwoord met AI-toepassingen om moeten gaan. Mediaorganisaties geven aan dat bestaande ethische instrumenten voor verantwoorde AI, zoals de EU “Ethics Guidelines for trustworthy AI” (European Commission, 2019) en de “AI Impact Assessment” (ECP, 2018) onvoldoende houvast bieden voor het ontwerp en de inzet van verantwoorde AI, omdat deze instrumenten niet specifiek zijn toegespitst op het mediadomein. Hierdoor worden deze ethische instrumenten nog nauwelijks toegepast in de mediasector, terwijl mediaorganisaties aangeven dat daar wel behoefte aan is. Het doel van dit project is om mediaorganisaties te ondersteunen en begeleiden bij het inbedden van verantwoorde AI in hun organisaties en bij het ontwerpen, ontwikkelen en inzetten van verantwoorde AI-toepassingen, door domeinspecifieke ethische instrumenten te ontwikkelen. Dit gebeurt aan de hand van drie praktijkcasussen die zijn aangedragen door mediaorganisaties: pluriforme aanbevelingssystemen, inclusieve spraakherkenningssystemen voor de Nederlandse taal en collaboratieve productie-ondersteuningssystemen. De ontwikkeling van de ethische instrumenten wordt uitgevoerd met een Research-through-Design aanpak met meerdere iteraties van informatie verzamelen, analyseren prototypen en testen. De beoogde resultaten van dit praktijkgerichte onderzoek zijn: 1) nieuwe kennis over het ontwerpen van verantwoorde AI in mediatoepassingen, 2) op media toegespitste ethische instrumenten, en 3) verandering in de deelnemende mediaorganisaties ten aanzien van verantwoorde AI door nauwe samenwerking met praktijkpartners in het onderzoek.
Moderatie van lezersreacties onder nieuwsartikelen is erg arbeidsintensief. Met behulp van kunstmatige intelligentie wordt moderatie mogelijk tegen een redelijke prijs. Aangezien elke toepassing van kunstmatige intelligentie eerlijk en transparant moet zijn, is het belangrijk om te onderzoeken hoe media hieraan kunnen voldoen.
Moderatie van lezersreacties onder nieuwsartikelen is erg arbeidsintensief. Met behulp van kunstmatige intelligentie wordt moderatie mogelijk tegen een redelijke prijs. Aangezien elke toepassing van kunstmatige intelligentie eerlijk en transparant moet zijn, is het belangrijk om te onderzoeken hoe media hieraan kunnen voldoen.Doel Dit promotieproject zal zich richten op de rechtvaardigheid, accountability en transparantie van algoritmische systemen voor het modereren van lezersreacties. Het biedt een theoretisch kader en bruikbare matregelen die nieuwsorganisaties zullen ondersteunen in het naleven van recente beleidsvorming voor een waardegedreven implementatie van AI. Nu steeds meer nieuwsmedia AI gaan gebruiken, moeten ze rechtvaardigheid, accountability en transparantie in hun gebruik van algoritmen meenemen in hun werkwijzen. Resultaten Hoewel moderatie met AI zeer aantrekkelijk is vanuit economisch oogpunt, moeten nieuwsmedia weten hoe ze onnauwkeurigheid en bias kunnen verminderen (fairness), de werking van hun AI bekendmaken (accountability) en de gebruikers laten begrijpen hoe beslissingen via AI worden genomen (transparancy). Dit proefschrift bevordert de kennis over deze onderwerpen. Looptijd 01 februari 2022 - 01 februari 2025 Aanpak De centrale onderzoeksvraag van dit promotieonderzoek is: Hoe kunnen en moeten nieuwsmedia rechtvaardigheid, accountability en transparantie in hun gebruik van algoritmes voor commentmoderatie? Om deze vraag te beantwoorden is het onderzoek opgesplitst in vier deelvragen. Hoe gebruiken nieuwsmedia algoritmes voor het modereren van reacties? Wat kunnen nieuwsmedia doen om onnauwkeurigheid en bias bij het modereren via AI van reacties te verminderen? Wat moeten nieuwsmedia bekendmaken over hun gebruik van moderatie via AI? Wat maakt uitleg van moderatie via AI begrijpelijk voor gebruikers van verschillende niveaus van digitale competentie?
Lectorate, part of HAS green academy