Online fraude is een veelvoorkomende vorm van criminaliteit. De gevolgen hiervan kunnen groot zijn. Slachtoffers rapporteren niet alleen financiële problemen, nog vaker leidt het volgens slachtoffers tot emotionele problemen zoals een afgenomen vertrouwen en gevoelens van schuld, schaamte en boosheid. De aangiftebereidheid onder slachtoffers van online fraude is echter laag en slachtoffers die wél aangifte doen, lopen tegen obstakels aan. Ondanks specialistische cyberteams lijkt de organisatie van de politie nog onvoldoende toegerust om dergelijke zaken effectief op te pakken. Als aanvulling op het strafrecht kunnen slachtoffers een civiele rechtsvertegenwoordiger (CRV) inschakelen met als doel de geleden schade op de (vermeende) fraudeur te verhalen. Hoewel onduidelijk is hoeveel slachtoffers hier precies gebruik van maken, wordt verwacht dat dit aantal zal toenemen. Deze verwachting is gebaseerd op recentelijke ontwikkelingen, zoals ten eerste de Procedure NAW-gegevens Begunstigde niet-bancaire Fraude (PNBF), waarmee slachtoffers van online fraude onder voorwaarden de naam, het adres en de woonplaats (NAW) van de ontvanger van het geld krijgen, waarna een civielrechtelijke procedure kan worden gestart. Ten tweede is de politie gestart met de pilot Directe Aansprakelijkheid (DA), waarin slachtoffers van online aan- en verkoopfraude onder voorwaarden door de politie worden doorverwezen naar een CRV met als doel een civielrechtelijke procedure te starten. Ten derde is sprake van toenemende aandacht voor de civielrechtelijke procedure in de media en op websites van consumenten- en slachtofferorganisaties. Dit onderschrijft de noodzaak dat inzicht moet komen in de procedure en diens gevolgen voor slachtoffers, daders, betrokken instanties en de maatschappij.
DOCUMENT
Slachtoffers van online fraude kunnen buiten het strafrecht omde geleden schade op de vermeende fraudeur verhalen. Dat kunnen zij doen door een civielrechtelijke procedure in gang te zetten met een civiele rechtsvertegenwoordiger. Bijvoorbeeld een gerechtsdeurwaarderskantoor. Hoe werkt dit voor slachtoffers en hoe ervaren zij deze afdoeningswijze?
MULTIFILE
Vorig jaar op 21 april 2013 kwam RTL Nieuws met het volgende bericht: “Grootschalige fraude Bulgaren met toeslagen”. Wat was er aan de hand? In Rotterdam bleken Bulgaren zich in te schrijven met een identiteitsbewijs en een vals huurcontract bij het loket burgerzaken, op basis waarvan ze meteen een Burgerservicenummer kregen toegekend. Deze Bulgaren waren in Bulgarije geronseld om zich hier in te schrijven en na inschrijving meteen weer terug te gaan. Natuurlijk niet voordat het Burgerservicenummer, tegen een kleine vergoeding, was overgedragen aan een bende fraudeurs. Deze maakte meteen een DigiD aan en vroeg daarmee, met terugwerkende kracht, huur- en zorgtoeslag aan. Bedragen tot soms wel achtduizend euro in één keer. Deze toeslagen worden door de belastingdienst meteen uitbetaald en controle vindt meestal pas achteraf plaats. Deze vorm van fraude is mogelijk gemaakt doordat processen en informatie(systemen) voor inschrijving als burger, aanvragen van toeslagen, betaling en controle over verschillende organisaties lopen. Hierdoor is er niet voldoende transparantie en heeft niemand een duidelijk overzicht met betrekking tot het functioneren van het proces.
MULTIFILE
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar.Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden.Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar. Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden. Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.
Digitale Held: Onderzoek naar serious gaming voor het vergroten van de kritische digitale vaardigheden en digitaal bewustzijn bij kwetsbare jongeren. Onderzoek uit 2022 laat zien dat Nederlandse jongeren en jongvolwassenen bovengemiddeld vaak slachtoffer van phishing zijn en lopen daardoor vaker financiële schade op. Daarnaast onderschatten jongeren de kans dat zij slachtoffer worden van vormen van cybercriminaliteit als identiteitsfraude en gegevensverlies door een datalek . Ook blijkt uit onderzoek dat nagenoeg de helft (47%) van de jongeren het eigen niveau van digitale vaardigheden overschat. Daarbij herkent een groot deel van de jongeren onveilig onlinegedrag minder goed en zijn ze sceptisch over wat ze van ouders en leraren kunnen leren . Dit leidt onder andere tot een stijging van het aantal kwetsbare jongeren die onder bewind staan. Daarbij lijkt een aanzienlijk deel van deze groep jongeren onder bewind een licht verstandelijke beperking (LVB) te hebben. Er is echter weinig bekend over de digitale vaardigheden en de inzichten op het eigen internetgedrag van deze jongeren met een LVB en schulden. Gezien de geringe tijd die bewindvoerders hebben om de zaken van deze personen te behartigen, is er geen tijd voor het aanleren van kritische digitale vaardigheden. Binnen het project wordt onderzoek gedaan naar het vergroten van kritische digitale vaardigheden en digitaal bewustzijn bij kwetsbare jongeren, waaronder jongeren met een LVB aansluitend op de missie Gezondheid en zorg, door de toepassing van serious gaming, bite-sized learning en sleuteltechnologie als artificial intelligence (AI). In het project werkt het Lectoraat Digitale Transformatie van de Hanzehogeschool Groningen samen met twee MKB-ondernemingen, ProBewind B.V. en de startup FamilyPay B.V., en met de Stichting Humanitas DMH. Daarnaast participeert het Innovatiehuis Politie Noord-Nederland als overige partij. Het project is een uitbreiding van een bestaand netwerk, waarbij nu verder onderzoek wordt uitgevoerd met publieke instellingen.