Content moderation is commonly used by social media platforms to curb the spread of hateful content. Yet, little is known about how users perceive this practice and which factors may influence their perceptions. Publicly denouncing content moderation—for example, portraying it as a limitation to free speech or as a form of political targeting—may play an important role in this context. Evaluations of moderation may also depend on interpersonal mechanisms triggered by perceived user characteristics. In this study, we disentangle these different factors by examining how the gender, perceived similarity, and social influence of a user publicly complaining about a content-removal decision influence evaluations of moderation. In an experiment (n = 1,586) conducted in the United States, the Netherlands, and Portugal, participants witnessed the moderation of a hateful post, followed by a publicly posted complaint about moderation by the affected user. Evaluations of the fairness, legitimacy, and bias of the moderation decision were measured, as well as perceived similarity and social influence as mediators. The results indicate that arguments about freedom of speech significantly lower the perceived fairness of content moderation. Factors such as social influence of the moderated user impacted outcomes differently depending on the moderated user’s gender. We discuss implications of these findings for content-moderation practices.
Learning Analytics en bias – Learning analytics richt zich op het meten en analyseren van studentgegevens om onderwijs te verbeteren. Bakker onderscheidt hierin verschillende niveaus, zoals student analytics en institutional analytics, en focust op inclusion analytics, waarin gekeken wordt naar kansengelijkheid. Bias – systematische vooroordelen in data – kan vooroordelen in algoritmen versterken en zo kansenongelijkheid veroorzaken. De onderzoeksmethode maakt gebruik van het 4/5-criterium, waarbij fairness in uitkomsten gemeten wordt door te kijken of de kansen voor de beschermde groep minstens 80% zijn van die van de bevoorrechte groep.Onderzoeksaanpak – Bakker gebruikt machine learning om retentie na het eerste studiejaar te voorspellen en onderzoekt vervolgens verschillen tussen groepen studenten, zoals mbo-en vwo-studenten. Hij volgt drie stappen: (1) Data voorbereiden en modellen bouwen: Data worden opgesplitst en opgeschoond om accurate voorspelmodellen te maken. (2) Variabelen analyseren: Invloed van kenmerken op uitkomsten wordt beoordeeld voor verschillende groepen. (3) Fairness berekenen: Het 4/5-criterium wordt toegepast op metrics zoals accuraatheid en statistische gelijkheid om bias en ongelijkheden te identificeren. Resultaten, aanbevelingen en vervolgonderzoek – Uit het onderzoek blijkt dat kansengelijkheid bij veel opleidingen ontbreekt, met name voor mannen en mbo-studenten, die een hogere kans op uitval hebben. Bakker adviseert sensitieve kenmerken zoals migratieachtergrond mee te nemen in analyses op basis van informed consent. Daarnaast pleit hij voor meer flexibiliteit in het beleid, geïnspireerd door maatregelen tijdens de coronacrisis, die een positief effect hadden op studiesucces.Toekomstvisie – Bakker benadrukt dat niet elke ongelijkheid het gevolg is van discriminatie en roept op tot data-informed interventies om sociale rechtvaardigheid in het onderwijs te bevorderen. Zijn methode wordt open access beschikbaar gesteld, zodat ook andere instellingen deze kunnen toepassen en kansengelijkheid systematisch en bewust kunnen onderzoeken.
As artificial intelligence (AI) reshapes hiring, organizations increasingly rely on AI-enhanced selection methods such as chatbot-led interviews and algorithmic resume screening. While AI offers efficiency and scalability, concerns persist regarding fairness, transparency, and trust. This qualitative study applies the Artificially Intelligent Device Use Acceptance (AIDUA) model to examine how job applicants perceive and respond to AI-driven hiring. Drawing on semi-structured interviews with 15 professionals, the study explores how social influence, anthropomorphism, and performance expectancy shape applicant acceptance, while concerns about transparency and fairness emerge as key barriers. Participants expressed a strong preference for hybrid AI-human hiring models, emphasizing the importance of explainability and human oversight. The study refines the AIDUA model in the recruitment context and offers practical recommendations for organizations seeking to implement AI ethically and effectively in selection processes.
MULTIFILE
Moderatie van lezersreacties onder nieuwsartikelen is erg arbeidsintensief. Met behulp van kunstmatige intelligentie wordt moderatie mogelijk tegen een redelijke prijs. Aangezien elke toepassing van kunstmatige intelligentie eerlijk en transparant moet zijn, is het belangrijk om te onderzoeken hoe media hieraan kunnen voldoen.
Moderatie van lezersreacties onder nieuwsartikelen is erg arbeidsintensief. Met behulp van kunstmatige intelligentie wordt moderatie mogelijk tegen een redelijke prijs. Aangezien elke toepassing van kunstmatige intelligentie eerlijk en transparant moet zijn, is het belangrijk om te onderzoeken hoe media hieraan kunnen voldoen.Doel Dit promotieproject zal zich richten op de rechtvaardigheid, accountability en transparantie van algoritmische systemen voor het modereren van lezersreacties. Het biedt een theoretisch kader en bruikbare matregelen die nieuwsorganisaties zullen ondersteunen in het naleven van recente beleidsvorming voor een waardegedreven implementatie van AI. Nu steeds meer nieuwsmedia AI gaan gebruiken, moeten ze rechtvaardigheid, accountability en transparantie in hun gebruik van algoritmen meenemen in hun werkwijzen. Resultaten Hoewel moderatie met AI zeer aantrekkelijk is vanuit economisch oogpunt, moeten nieuwsmedia weten hoe ze onnauwkeurigheid en bias kunnen verminderen (fairness), de werking van hun AI bekendmaken (accountability) en de gebruikers laten begrijpen hoe beslissingen via AI worden genomen (transparancy). Dit proefschrift bevordert de kennis over deze onderwerpen. Looptijd 01 februari 2022 - 01 februari 2025 Aanpak De centrale onderzoeksvraag van dit promotieonderzoek is: Hoe kunnen en moeten nieuwsmedia rechtvaardigheid, accountability en transparantie in hun gebruik van algoritmes voor commentmoderatie? Om deze vraag te beantwoorden is het onderzoek opgesplitst in vier deelvragen. Hoe gebruiken nieuwsmedia algoritmes voor het modereren van reacties? Wat kunnen nieuwsmedia doen om onnauwkeurigheid en bias bij het modereren via AI van reacties te verminderen? Wat moeten nieuwsmedia bekendmaken over hun gebruik van moderatie via AI? Wat maakt uitleg van moderatie via AI begrijpelijk voor gebruikers van verschillende niveaus van digitale competentie?