Het Hoger Beroepsonderwijs (hbo) kent evenals de samenleving een steeds gemêleerdere populatie. De vraag is hoe instellingen die diversiteit zo goed mogelijk kunnen benutten. Er zijn meerdere wegen die naar Rome leiden, maar de strijd tegen racisme en discriminatie in en buiten de academie staat voorop.
LINK
Staatssecretaris Van Huffelen (Digitale Zaken) wil ambtenaren verplichten een ‘mensenrechten-impact-assessment’ uit te voeren bij nieuwe én bestaande algoritmes. Een goede ontwikkeling, vinden Quirine Eijkman en collega’s van het College voor de Rechten van de Mens. Maar dan met bindende discriminatietoets.
LINK
Dat er op de stagemarkt sprake is van kansenongelijkheid, wordt door alle studenten waarmee er in dit onderzoek naar stagediscriminatie is gesproken onderschreven. Studenten geven aan dat veel stagebedrijven nog altijd vasthouden aan een bepaald normbeeld. Dit is een ideaalbeeld waar een stagiair of potentiële medewerker aan zou moeten voldoen. Wanneer er aan studenten wordt gevraagd om dit normbeeld te beschrijven, spreken zij van een ‘echte Hollander’ met blond haar en blauwe ogen. Het hebben van een ander uiterlijk, een migratieachtergrond of buitenlandse naam zou resulteren in een beduidend kleinere kans op een stage. Dit geldt ook wanneer er sprake is van een van de heersende norm afwijkende religie, gender of seksualiteit. Sommige studenten concluderen dit uit eigen ervaringen op de stagemarkt. Anderen hebben verhalen gehoord van vrienden, familieleden of schoolgenoten die bij het zoeken naar of lopen van een stage werden geconfronteerd met uitsluiting of discriminatie. Ook deze verhalen van anderen blijken van invloed op de houding van studenten ten aanzien van het stagezoekproces.
Heb je wel eens gemerkt dat de premie voor je autoverzekering verandert als je in een andere wijk gaat wonen? Verzekeraars berekenen dit met een algoritme, wat kan leiden tot indirecte discriminatie. Dit project onderzoekt hoe zulke digitale differentiatie (DD) zowel eerlijk als rendabel kan.
Het onderzoek gaat over hoe verschillende maatschappelijke organisaties in Nederland zich verhouden tot de problemen die artificiële intelligentie (AI) met zich meebrengt. Daarbij kan je denken aan toegang tot het recht en discriminatie.Doel Het doel is te reconstrueren wat de positie is van maatschappelijke organisaties in Nederland ten aanzien van AI. Maatschappelijke organisaties spelen een belangrijke rol bij het vorm geven aan tegenmacht. Resultaten Verschillende clusters van tegenmacht in de context van AI zijn geïdentificeerd. Namelijk verzet & protest, meebewegen, meedenken & bijsturen en confronteren & controleren. Verder worden de ontwikkelingen beschreven die bijdragen aan de wijze waarop tegenmacht vorm krijgt. Looptijd 01 april 2020 - 28 oktober 2021 Aanpak Het working paper biedt een overzicht van de stand van zaken van tegenmacht. Dat is gebaseerd op kwalitatief onderzoek. Daarnaast zijn open interviews afgenomen met 19 maatschappelijke organisaties en achtergrondgesprekken met 9 wetenschappers en 4 kunstenaars.
Artificiële Intelligentie (AI) speelt een steeds belangrijkere rol in mediaorganisaties bij de automatische creatie, personalisatie, distributie en archivering van mediacontent. Dit gaat gepaard met vragen en bezorgdheid in de maatschappij en de mediasector zelf over verantwoord gebruik van AI. Zo zijn er zorgen over discriminatie van bepaalde groepen door bias in algoritmes, over toenemende polarisatie door de verspreiding van radicale content en desinformatie door algoritmes en over schending van privacy bij een niet transparante omgang met data. Veel mediaorganisaties worstelen met de vraag hoe ze verantwoord met AI-toepassingen om moeten gaan. Mediaorganisaties geven aan dat bestaande ethische instrumenten voor verantwoorde AI, zoals de EU “Ethics Guidelines for trustworthy AI” (European Commission, 2019) en de “AI Impact Assessment” (ECP, 2018) onvoldoende houvast bieden voor het ontwerp en de inzet van verantwoorde AI, omdat deze instrumenten niet specifiek zijn toegespitst op het mediadomein. Hierdoor worden deze ethische instrumenten nog nauwelijks toegepast in de mediasector, terwijl mediaorganisaties aangeven dat daar wel behoefte aan is. Het doel van dit project is om mediaorganisaties te ondersteunen en begeleiden bij het inbedden van verantwoorde AI in hun organisaties en bij het ontwerpen, ontwikkelen en inzetten van verantwoorde AI-toepassingen, door domeinspecifieke ethische instrumenten te ontwikkelen. Dit gebeurt aan de hand van drie praktijkcasussen die zijn aangedragen door mediaorganisaties: pluriforme aanbevelingssystemen, inclusieve spraakherkenningssystemen voor de Nederlandse taal en collaboratieve productie-ondersteuningssystemen. De ontwikkeling van de ethische instrumenten wordt uitgevoerd met een Research-through-Design aanpak met meerdere iteraties van informatie verzamelen, analyseren prototypen en testen. De beoogde resultaten van dit praktijkgerichte onderzoek zijn: 1) nieuwe kennis over het ontwerpen van verantwoorde AI in mediatoepassingen, 2) op media toegespitste ethische instrumenten, en 3) verandering in de deelnemende mediaorganisaties ten aanzien van verantwoorde AI door nauwe samenwerking met praktijkpartners in het onderzoek.