De verhouding tussen jongeren en de politie in de Haagse Schilderswijk is al jaren moeizaam. Na de dood van Mitch Henriquez door politiegeweld leidden de opgebouwde frustraties in 2015 tot rellen. Desondanks stelden diverse onderzoekers dat er geen sprake was van buitenproportioneel optreden of discriminatie door de politie. Tegen deze achtergrond voerde het lectoraat Burgerschap en Diversiteit van De Haagse Hogeschool een onderzoek uit naar het vertrouwen van jonge Schilderswijkers in de politie. Uit hun verhalen blijkt dat zelfs zeer kritische jongeren grote waardering hebben voor hun wijkagent, maar dat het gevoel van discriminatie alomtegenwoordig is. Ook wordt duidelijk dat de interactie tussen jongeren en politie alleen kan worden begrepen tegen de achtergrond van de ongelijke machtsverhoudingen op macroniveau.
Vrijdag 8 april 2022 heeft ECHO (Expertise Centrum voor Diversiteitsbeleid) in samenwerking met het kenniscentrum Global and Inclusive Education een Townhall sessie georganiseerd op de Haagse Hogeschool voor het Nationaal Programma tegen Discriminatie en Racisme. Deze dertiende van 22 sessies was gericht op het onderwijs en werd ingeleid en afgesloten door Rabin Baldewsingh, de nationale coördinator van het programma. Naomi van Stapele en Laurence Guérin mochten de middag inhoudelijk inleiden. Naomi verduidelijkte wat racisme en discriminatie betekenen en Laurence benadrukte dat wereldburgerschap in het curriculum niet DE oplossing is. Tijdens de inleiding stipten zij al aan dat participatie en inclusie niet zonder elkaar kunnen. Wat bedoelen ze daarmee?
MULTIFILE
Dat er op de stagemarkt sprake is van kansenongelijkheid, wordt door de ruim 50 studenten waarmee er in dit onderzoek naar stagediscriminatie is gesproken onderschreven. Studenten geven aan dat veel stagebedrijven nog altijd vasthouden aan een bepaald normbeeld. Het hebben van een ander uiterlijk, een migratieachtergrond of buitenlandse naam zou resulteren in een beduidend kleinere kans op een stage. Dit geldt ook wanneer er sprake is van een van de heersende norm afwijkende religie, gender of seksualiteit. Sommige studenten concluderen dit uit eigen ervaringen op de stagemarkt. Anderen hebben verhalen gehoord van vrienden, familieleden of schoolgenoten die bij het zoeken naar of lopen van een stage werden geconfronteerd met uitsluiting of discriminatie. Deze verhalen en ervaringen blijken van invloed op de houding van studenten ten aanzien van het stagezoekproces. Dit rapport doet verslag van het onderzoek en biedt aanbevelingen en tips.
Heb je wel eens gemerkt dat de premie voor je autoverzekering verandert als je in een andere wijk gaat wonen? Verzekeraars berekenen dit met een algoritme, wat kan leiden tot indirecte discriminatie. Dit project onderzoekt hoe zulke digitale differentiatie (DD) zowel eerlijk als rendabel kan.
Het onderzoek gaat over hoe verschillende maatschappelijke organisaties in Nederland zich verhouden tot de problemen die artificiële intelligentie (AI) met zich meebrengt. Daarbij kan je denken aan toegang tot het recht en discriminatie.Doel Het doel is te reconstrueren wat de positie is van maatschappelijke organisaties in Nederland ten aanzien van AI. Maatschappelijke organisaties spelen een belangrijke rol bij het vorm geven aan tegenmacht. Resultaten Verschillende clusters van tegenmacht in de context van AI zijn geïdentificeerd. Namelijk verzet & protest, meebewegen, meedenken & bijsturen en confronteren & controleren. Verder worden de ontwikkelingen beschreven die bijdragen aan de wijze waarop tegenmacht vorm krijgt. Looptijd 01 april 2020 - 28 oktober 2021 Aanpak Het working paper biedt een overzicht van de stand van zaken van tegenmacht. Dat is gebaseerd op kwalitatief onderzoek. Daarnaast zijn open interviews afgenomen met 19 maatschappelijke organisaties en achtergrondgesprekken met 9 wetenschappers en 4 kunstenaars.
Artificiële Intelligentie (AI) speelt een steeds belangrijkere rol in mediaorganisaties bij de automatische creatie, personalisatie, distributie en archivering van mediacontent. Dit gaat gepaard met vragen en bezorgdheid in de maatschappij en de mediasector zelf over verantwoord gebruik van AI. Zo zijn er zorgen over discriminatie van bepaalde groepen door bias in algoritmes, over toenemende polarisatie door de verspreiding van radicale content en desinformatie door algoritmes en over schending van privacy bij een niet transparante omgang met data. Veel mediaorganisaties worstelen met de vraag hoe ze verantwoord met AI-toepassingen om moeten gaan. Mediaorganisaties geven aan dat bestaande ethische instrumenten voor verantwoorde AI, zoals de EU “Ethics Guidelines for trustworthy AI” (European Commission, 2019) en de “AI Impact Assessment” (ECP, 2018) onvoldoende houvast bieden voor het ontwerp en de inzet van verantwoorde AI, omdat deze instrumenten niet specifiek zijn toegespitst op het mediadomein. Hierdoor worden deze ethische instrumenten nog nauwelijks toegepast in de mediasector, terwijl mediaorganisaties aangeven dat daar wel behoefte aan is. Het doel van dit project is om mediaorganisaties te ondersteunen en begeleiden bij het inbedden van verantwoorde AI in hun organisaties en bij het ontwerpen, ontwikkelen en inzetten van verantwoorde AI-toepassingen, door domeinspecifieke ethische instrumenten te ontwikkelen. Dit gebeurt aan de hand van drie praktijkcasussen die zijn aangedragen door mediaorganisaties: pluriforme aanbevelingssystemen, inclusieve spraakherkenningssystemen voor de Nederlandse taal en collaboratieve productie-ondersteuningssystemen. De ontwikkeling van de ethische instrumenten wordt uitgevoerd met een Research-through-Design aanpak met meerdere iteraties van informatie verzamelen, analyseren prototypen en testen. De beoogde resultaten van dit praktijkgerichte onderzoek zijn: 1) nieuwe kennis over het ontwerpen van verantwoorde AI in mediatoepassingen, 2) op media toegespitste ethische instrumenten, en 3) verandering in de deelnemende mediaorganisaties ten aanzien van verantwoorde AI door nauwe samenwerking met praktijkpartners in het onderzoek.