Content moderation is commonly used by social media platforms to curb the spread of hateful content. Yet, little is known about how users perceive this practice and which factors may influence their perceptions. Publicly denouncing content moderation—for example, portraying it as a limitation to free speech or as a form of political targeting—may play an important role in this context. Evaluations of moderation may also depend on interpersonal mechanisms triggered by perceived user characteristics. In this study, we disentangle these different factors by examining how the gender, perceived similarity, and social influence of a user publicly complaining about a content-removal decision influence evaluations of moderation. In an experiment (n = 1,586) conducted in the United States, the Netherlands, and Portugal, participants witnessed the moderation of a hateful post, followed by a publicly posted complaint about moderation by the affected user. Evaluations of the fairness, legitimacy, and bias of the moderation decision were measured, as well as perceived similarity and social influence as mediators. The results indicate that arguments about freedom of speech significantly lower the perceived fairness of content moderation. Factors such as social influence of the moderated user impacted outcomes differently depending on the moderated user’s gender. We discuss implications of these findings for content-moderation practices.
DOCUMENT
Social media platforms such as Facebook, YouTube, and Twitter have millions of users logging in every day, using these platforms for commu nication, entertainment, and news consumption. These platforms adopt rules that determine how users communicate and thereby limit and shape public discourse.2 Platforms need to deal with large amounts of data generated every day. For example, as of October 2021, 4.55 billion social media users were ac tive on an average number of 6.7 platforms used each month per internet user.3 As a result, platforms were compelled to develop governance models and content moderation systems to deal with harmful and undesirable content, including disinformation. In this study: • ‘Content governance’ is defined as a set of processes, procedures, and systems that determine how a given platform plans, publishes, moder ates, and curates content. • ‘Content moderation’ is the organised practice of a social media plat form of pre-screening, removing, or labelling undesirable content to reduce the damage that inappropriate content can cause.
MULTIFILE
Introduction: Illness Perceptions (IPs) may play a role in the management of persistent low back pain. The mediation and/or moderation effect of IPs on primary outcomes in physiotherapy treatment is unknown. Methods: A multiple single-case experimental design, using a matched care physiotherapy intervention, with three phases (phases A-B-A’) was used including a 3 month follow up (phase A’). Primary outcomes: pain intensity, physical functioning and pain interference in daily life. Analyzes: linear mixed models, adjusted for fear of movement, catastrophizing, avoidance, sombreness and sleep. Results: Nine patients were included by six different primary care physiotherapists. Repeated measures on 196 data points showed that IPs Consequences, Personal control, Identity, Concern and Emotional response had a mediation effect on all three primary outcomes. The IP Personal control acted as a moderator for all primary outcomes, with clinically relevant improvements at 3 month follow up. Conclusion: Our study might indicate that some IPs have a mediating or a moderating effect on the outcome of a matched care physiotherapy treatment. Assessing Personal control at baseline, as a relevant moderator for the outcome prognosis of successful physiotherapy management of persistent low back pain, should be further eplored.
DOCUMENT
Moderatie van lezersreacties onder nieuwsartikelen is erg arbeidsintensief. Met behulp van kunstmatige intelligentie wordt moderatie mogelijk tegen een redelijke prijs. Aangezien elke toepassing van kunstmatige intelligentie eerlijk en transparant moet zijn, is het belangrijk om te onderzoeken hoe media hieraan kunnen voldoen.
Moderatie van lezersreacties onder nieuwsartikelen is erg arbeidsintensief. Met behulp van kunstmatige intelligentie wordt moderatie mogelijk tegen een redelijke prijs. Aangezien elke toepassing van kunstmatige intelligentie eerlijk en transparant moet zijn, is het belangrijk om te onderzoeken hoe media hieraan kunnen voldoen.Doel Dit promotieproject zal zich richten op de rechtvaardigheid, accountability en transparantie van algoritmische systemen voor het modereren van lezersreacties. Het biedt een theoretisch kader en bruikbare matregelen die nieuwsorganisaties zullen ondersteunen in het naleven van recente beleidsvorming voor een waardegedreven implementatie van AI. Nu steeds meer nieuwsmedia AI gaan gebruiken, moeten ze rechtvaardigheid, accountability en transparantie in hun gebruik van algoritmen meenemen in hun werkwijzen. Resultaten Hoewel moderatie met AI zeer aantrekkelijk is vanuit economisch oogpunt, moeten nieuwsmedia weten hoe ze onnauwkeurigheid en bias kunnen verminderen (fairness), de werking van hun AI bekendmaken (accountability) en de gebruikers laten begrijpen hoe beslissingen via AI worden genomen (transparancy). Dit proefschrift bevordert de kennis over deze onderwerpen. Looptijd 01 februari 2022 - 01 februari 2025 Aanpak De centrale onderzoeksvraag van dit promotieonderzoek is: Hoe kunnen en moeten nieuwsmedia rechtvaardigheid, accountability en transparantie in hun gebruik van algoritmes voor commentmoderatie? Om deze vraag te beantwoorden is het onderzoek opgesplitst in vier deelvragen. Hoe gebruiken nieuwsmedia algoritmes voor het modereren van reacties? Wat kunnen nieuwsmedia doen om onnauwkeurigheid en bias bij het modereren via AI van reacties te verminderen? Wat moeten nieuwsmedia bekendmaken over hun gebruik van moderatie via AI? Wat maakt uitleg van moderatie via AI begrijpelijk voor gebruikers van verschillende niveaus van digitale competentie?
Binnen dit Europees project zal met samenwerkingspartners uit Nederland, België en Slowakije samengewerkt worden aan een systeem voor het detecteren van online hate speech in de verschillende Europese talen. Het project richt zich op het ontwikkelen en opzetten van een monitor van online hatespeech en desinformatie: de European Observatory of Online Hate . De inzichten worden verwerkt in informatie dashboards, rapportages en bijeenkomsten voor relevante stakeholders op het gebied van beleidzaken, veiligheid en sociaal werk.Doel Met dit project wordt een Europees onderzoekscentrum naar onlinehaatspraak en desinformatie opgezet: European Observatory of Online Hate (EOOH). De opgedane inzichten moeten experts helpen om onder andere online radicalisering vroegtijdig te detecteren in de 24 landstalen van de Europese Unie. Bij dit project wordt een netwerk aan experts opgebouwd om de observaties om te zette naar inzichten en concreet beleid. Resultaten Dit project richt zich op de volgende doelen: Inzicht in online verspreiding hate speech en desinformatie Versterken samenwerking en kennisuitwisseling met stakeholders in de praktijk in de publieke en private sector. Bewustwordingscampagnes i.h.b. gericht op jongeren ResultatenHet project heeft al geleid tot verschillende resultaten waaronder de volgende blogs: Facebook revelations and the fundamental problems of platform monopolies Moderation after the deed always comes too late Meer resultaten waaronder andere blogs en nieuwsbrieven zijn te vinden op: eooh.eu Looptijd 01 januari 2021 - 01 juli 2023 Aanpak Ontwikkelen van Explainabale AI technologie voor online hate speech detectie en monitoring en een lexicon in 24 EU talen. Bij de European Observatory of Online Hate (EOOH) worden meer dan 50 experts en organisaties betrokken, van AI onderzoekers, sociaal werk deskundigen, Europese politiediensten, mensenrechtenorganisaties tot beleidsmakers. Doorwerking van het onderzoek Inzichten in verspreiding en adequate counter narratieven en interventies voor online social werk onderwijs. Inzichten voor de beroepspraktijk voor AI onderzoek, sociaal werk deskundigen, Europese politiediensten, mensenrechtenorganisaties en beleidsmakers.