Although the prevalence of cybercrime has increased rapidly, most victims do not report these offenses to the police. This is the first study that compares associations between victim characteristics and crime reporting behavior for traditional crimes versus cybercrimes. Data from four waves of a Dutch cross-sectional population survey are used (N = 97,186 victims). Results show that cybercrimes are among the least reported types of crime. Moreover, the determinants of crime reporting differ between traditional crimes and cybercrimes, between different types of cybercrime (that is, identity theft, consumer fraud, hacking), and between reporting cybercrimes to the police and to other organizations. Implications for future research and practice are discussed. doi: https://doi.org/10.1177/1477370818773610 This article is honored with the European Society of Criminology (ESC) Award for the “Best Article of the Year 2019”. Dit artikel is bekroond met de European Society of Criminology (ESC) Award for the “Best Article of the Year 2019”.
MULTIFILE
Ethical Dilemmas in the Creative, Cultural and Service Industries enhances professional ethical awareness and supports students'development of skills for ethical decision-making in these growing sectors. It focusses on the shaping of personal and professional values, and dealing with the moral and ethical issues that (future) professionals may encounter in practice. Including a multitude of varied and interdisciplinary case studies, this textbook adopts an applied ethical approach which enables the student to combine basic ethical theory with relevant and ‘real-life'cases. Major ethical issues such as CSR, ethical leadership, human rights, fraud, employee rights and duties, new technology and (social) entrepreneurship are addressed. This will be invaluable reading for students studying tourism, hospitality, leisure, events, marketing, healthcare, logistics, retail and game development. It will also be a suitable resource for in-company training of practitioners already working in this wide range of domains
LINK
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar.Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden.Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar. Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden. Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.
Digitale Held: Onderzoek naar serious gaming voor het vergroten van de kritische digitale vaardigheden en digitaal bewustzijn bij kwetsbare jongeren. Onderzoek uit 2022 laat zien dat Nederlandse jongeren en jongvolwassenen bovengemiddeld vaak slachtoffer van phishing zijn en lopen daardoor vaker financiële schade op. Daarnaast onderschatten jongeren de kans dat zij slachtoffer worden van vormen van cybercriminaliteit als identiteitsfraude en gegevensverlies door een datalek . Ook blijkt uit onderzoek dat nagenoeg de helft (47%) van de jongeren het eigen niveau van digitale vaardigheden overschat. Daarbij herkent een groot deel van de jongeren onveilig onlinegedrag minder goed en zijn ze sceptisch over wat ze van ouders en leraren kunnen leren . Dit leidt onder andere tot een stijging van het aantal kwetsbare jongeren die onder bewind staan. Daarbij lijkt een aanzienlijk deel van deze groep jongeren onder bewind een licht verstandelijke beperking (LVB) te hebben. Er is echter weinig bekend over de digitale vaardigheden en de inzichten op het eigen internetgedrag van deze jongeren met een LVB en schulden. Gezien de geringe tijd die bewindvoerders hebben om de zaken van deze personen te behartigen, is er geen tijd voor het aanleren van kritische digitale vaardigheden. Binnen het project wordt onderzoek gedaan naar het vergroten van kritische digitale vaardigheden en digitaal bewustzijn bij kwetsbare jongeren, waaronder jongeren met een LVB aansluitend op de missie Gezondheid en zorg, door de toepassing van serious gaming, bite-sized learning en sleuteltechnologie als artificial intelligence (AI). In het project werkt het Lectoraat Digitale Transformatie van de Hanzehogeschool Groningen samen met twee MKB-ondernemingen, ProBewind B.V. en de startup FamilyPay B.V., en met de Stichting Humanitas DMH. Daarnaast participeert het Innovatiehuis Politie Noord-Nederland als overige partij. Het project is een uitbreiding van een bestaand netwerk, waarbij nu verder onderzoek wordt uitgevoerd met publieke instellingen.