Homoseksuelen hebben regelmatig last van agressie door jongeren. Hoe kunnen jongerenwerkers beter openstaan voor homoseksualiteit en optreden tegen homovijandigheid? In de loop van 2009 zijn tientallen Amsterdamse jongerenwerkers getraind volgens de methode "Dialoog Jongerenwerk en homoseksualiteit". Dit boekje doet met een methodiekbeschrijving verslag van dat Dialoogproject. Het Dialoogproject jongerenwerk en homoseksualiteit is een beschrijving van een methodiek van Youth Spot, COC Amsterdam en Marten Bos.
Het recreatieve gebruik van lachgas heeft de laatste jaren een grote vlucht genomen. Hoewel incidenteel lachgasgebruik nauwelijks gezondheidsschade geeft, kan langdurig of excessief lachgasgebruik tot neurologische schade leiden. Het viel Amsterdamse zorgcentra en behandelaren op dat met name jonge Marokkaanse en Turkse Nederlanders in stadsdeel Amsterdam Nieuw-West zich meldden met neurologische symptomen, waaronder ernstige verlammingsverschijnselen na problematisch lachgasgebruik. Middels interviews met dertien jonge Marokkaans-Nederlandse gebruikers (19-28 jaar) worden de determinanten van hun problematisch lachgasgebruik belicht, inclusief de relatief lage medisch-psychische zorgvraag bij deze groep gebruikers. Van hen waren zeven jongeren (poly-)klinisch in behandeling voor hun problematische gebruik. De overige zes jongeren waren niet in behandeling, maar gebruikten wel ten minste elke week lachgas.Uit de interviews blijkt dat lachgas wordt gebruikt uit verveling en om psychosociale stress en negatieve gedachten te onderdrukken. Lachgas lijkt een panacee dat verlichting biedt. Andere motieven zijn depressie, discriminatie en conflicten met vrienden of ouders. Door de (taboe)cultuur rond middelengebruik, het wantrouwen, schaamte en machocultuur bij deze groep gebruikers bereikt de hulpverlening pas laat de Marokkaans-Nederlandse problematische lachgasgebruiker. De conclusie is dat het aanbeveling verdient om influencers in te zetten bij campagnes, gericht op de risico’s en behandeling van fors lachgasgebruik. Ook het ‘jongerenwerk’ kan een belangrijke rol spelen in het motiveren van sociaal geïsoleerde gebruikers om medisch-psychische hulp te zoeken.
In een pluriforme en democratische samenleving is het leren omgaan met diversiteit en verschillen een belangrijke burgerschapscompetentie. Vanuit de contacttheorie kan worden verondersteld dat contact tussen leden van verschillende sociale groepen hier een positieve bijdrage aan levert doordat het vooroordelen en discriminatie kan verminderen. Een onderwijsomgeving met weinig diversiteit in opvattingen en sociale achtergronden beperkt daarmee de mogelijkheid om vanuit de contacttheorie positieve effecten te genereren. Het doel van dit onderzoek is om meer inzicht te krijgen in de pedagogisch-didactische handelingen van docenten Burgerschap om studenten – binnen een homogene onderwijsomgeving – te leren omgaan met verschillen. Hiertoe zijn zowel mbo-docenten als mbo-studenten geïnterviewd. Uit de resultaten blijkt dat docenten hiervoor gebruik maken van verschillende werkvormen, zoals dialogische didactiek, rollenspellen, samenwerkingsopdrachten en excursies. Deze werkvormen komen gedeeltelijk overeen met de uitgangspunten van de contacttheorie. Er kan dus worden geconcludeerd dat er diverse opties zijn om het leren omgaan met verschillen te bevorderen binnen een homogene onderwijsomgeving.
MULTIFILE
Het onderzoek gaat over hoe verschillende maatschappelijke organisaties in Nederland zich verhouden tot de problemen die artificiële intelligentie (AI) met zich meebrengt. Daarbij kan je denken aan toegang tot het recht en discriminatie.Doel Het doel is te reconstrueren wat de positie is van maatschappelijke organisaties in Nederland ten aanzien van AI. Maatschappelijke organisaties spelen een belangrijke rol bij het vorm geven aan tegenmacht. Resultaten Verschillende clusters van tegenmacht in de context van AI zijn geïdentificeerd. Namelijk verzet & protest, meebewegen, meedenken & bijsturen en confronteren & controleren. Verder worden de ontwikkelingen beschreven die bijdragen aan de wijze waarop tegenmacht vorm krijgt. Looptijd 01 april 2020 - 28 oktober 2021 Aanpak Het working paper biedt een overzicht van de stand van zaken van tegenmacht. Dat is gebaseerd op kwalitatief onderzoek. Daarnaast zijn open interviews afgenomen met 19 maatschappelijke organisaties en achtergrondgesprekken met 9 wetenschappers en 4 kunstenaars.
Artificiële Intelligentie (AI) speelt een steeds belangrijkere rol in mediaorganisaties bij de automatische creatie, personalisatie, distributie en archivering van mediacontent. Dit gaat gepaard met vragen en bezorgdheid in de maatschappij en de mediasector zelf over verantwoord gebruik van AI. Zo zijn er zorgen over discriminatie van bepaalde groepen door bias in algoritmes, over toenemende polarisatie door de verspreiding van radicale content en desinformatie door algoritmes en over schending van privacy bij een niet transparante omgang met data. Veel mediaorganisaties worstelen met de vraag hoe ze verantwoord met AI-toepassingen om moeten gaan. Mediaorganisaties geven aan dat bestaande ethische instrumenten voor verantwoorde AI, zoals de EU “Ethics Guidelines for trustworthy AI” (European Commission, 2019) en de “AI Impact Assessment” (ECP, 2018) onvoldoende houvast bieden voor het ontwerp en de inzet van verantwoorde AI, omdat deze instrumenten niet specifiek zijn toegespitst op het mediadomein. Hierdoor worden deze ethische instrumenten nog nauwelijks toegepast in de mediasector, terwijl mediaorganisaties aangeven dat daar wel behoefte aan is. Het doel van dit project is om mediaorganisaties te ondersteunen en begeleiden bij het inbedden van verantwoorde AI in hun organisaties en bij het ontwerpen, ontwikkelen en inzetten van verantwoorde AI-toepassingen, door domeinspecifieke ethische instrumenten te ontwikkelen. Dit gebeurt aan de hand van drie praktijkcasussen die zijn aangedragen door mediaorganisaties: pluriforme aanbevelingssystemen, inclusieve spraakherkenningssystemen voor de Nederlandse taal en collaboratieve productie-ondersteuningssystemen. De ontwikkeling van de ethische instrumenten wordt uitgevoerd met een Research-through-Design aanpak met meerdere iteraties van informatie verzamelen, analyseren prototypen en testen. De beoogde resultaten van dit praktijkgerichte onderzoek zijn: 1) nieuwe kennis over het ontwerpen van verantwoorde AI in mediatoepassingen, 2) op media toegespitste ethische instrumenten, en 3) verandering in de deelnemende mediaorganisaties ten aanzien van verantwoorde AI door nauwe samenwerking met praktijkpartners in het onderzoek.
De Nederlandse financiële sector is één van de vier grote sectoren waar AI wordt toegepast [CBS2021]. Zo maken de verzekeraars betrokken bij onze praktijkpartners MavenBlue en het Verbond van Verzekeraars gebruik van digitale differentiatie (DD): het gebruik van zelflerende algoritmes om het financieel risico per klant te bepalen; op dit risico baseren verzekeraars de premiehoogte en of ze de klant aannemen of weigeren. Verzekeraars willen zo het rendement van hun producten bewaken zodat ze de financiële duurzaamheid van hun bedrijf kunnen waarborgen. Tegelijk, willen ze dat het onderscheid dat ze maken eerlijk is (m.a.w. niet discriminerend) zodat ze wetgeving volgen en boetes en imagoschade voorkomen. Bovendien, vanuit de wetgever, toezicht en de samenleving neemt de druk toe om de eerlijkheid van digitale differentiatie te kunnen verantwoorden. Dit roept de vraag op: hoe kunnen verzekeraars digitale premie-differentiatie verantwoorden vanuit zowel eerlijkheid als rendement? Voor onze praktijkpartners is het een uitdaging op deze vraag een antwoord te vinden doordat het een integratie vraagt van wetgeving, ethiek en techniek in huidige werkprocessen. Daarom volgt ons onderzoek een ‘design science’-aanpak: we ontwerpen een methode om DD te verantwoorden en gebruiken deze methode om de behoeftes scherp te krijgen vanuit verzekeraars en software. Dit doen we door middel van interviews, een literatuurstudie, ontwerp en vier co-design workshops waar de praktijkpartners de methode evalueren en hun behoeftes aangeven. Het resultaat van dit onderzoek is tweeledig: een methode om DD te verantwoorden en een evaluatie van deze methode in termen van de behoeftes van de praktijk. Dit is relevant voor een bredere validatie van de methode in een RAAK en direct relevant voor de praktijkpartners zodat ze boetes en imagoschade voorkomen en voor de maatschappij om discriminatie door zelflerende algoritmes te doorgronden en te voorkomen.