Although the prevalence of cybercrime has increased rapidly, most victims do not report these offenses to the police. This is the first study that compares associations between victim characteristics and crime reporting behavior for traditional crimes versus cybercrimes. Data from four waves of a Dutch cross-sectional population survey are used (N = 97,186 victims). Results show that cybercrimes are among the least reported types of crime. Moreover, the determinants of crime reporting differ between traditional crimes and cybercrimes, between different types of cybercrime (that is, identity theft, consumer fraud, hacking), and between reporting cybercrimes to the police and to other organizations. Implications for future research and practice are discussed. doi: https://doi.org/10.1177/1477370818773610 This article is honored with the European Society of Criminology (ESC) Award for the “Best Article of the Year 2019”. Dit artikel is bekroond met de European Society of Criminology (ESC) Award for the “Best Article of the Year 2019”.
MULTIFILE
Ethical Dilemmas in the Creative, Cultural and Service Industries enhances professional ethical awareness and supports students'development of skills for ethical decision-making in these growing sectors. It focusses on the shaping of personal and professional values, and dealing with the moral and ethical issues that (future) professionals may encounter in practice. Including a multitude of varied and interdisciplinary case studies, this textbook adopts an applied ethical approach which enables the student to combine basic ethical theory with relevant and ‘real-life'cases. Major ethical issues such as CSR, ethical leadership, human rights, fraud, employee rights and duties, new technology and (social) entrepreneurship are addressed. This will be invaluable reading for students studying tourism, hospitality, leisure, events, marketing, healthcare, logistics, retail and game development. It will also be a suitable resource for in-company training of practitioners already working in this wide range of domains
LINK
Cybercrime – en daarmee cybersecurity – is een groot maatschappelijk probleem. De criminologische bestudering van cybercrime staat nog in de kinderschoenen. Het is echter niet alleen noodzakelijk om fundamenteel wetenschappelijk onderzoek uit te voeren (‘de lange termijn’), maar ook om met de praktijk de acute problemen en uitdagingen van vandaag en morgen te onderzoeken. Het merendeel van het onderzoek op dit gebied – en dan heb ik het over zowel fundamenteel wetenschappelijk als praktijkgericht onderzoek – komt tot nu toe uit de hoek van de technische wetenschappen. Technologie speelt natuurlijk ook een belangrijke rol bij cyberincidenten, maar we hebben het over mensen die cyberaanvallen uitvoeren, mensen die – wetend of onwetend – meewerken aan die aanvallen, mensen die slachtoffer worden en mensen die zich bezighouden met het tegenhouden van cyberaanvallen. Empirisch onderzoek naar de menselijke factor bij cybercrime en cybersecurity is schaars. De onder mijn redactie recent uitgebrachte onderzoeksagenda ‘The human factor in cybercrime en cybersecurity’ maakt dit helder.1 In die onderzoeksagenda zijn tientallen onderwerpen geïdentificeerd waar de komende jaren onderzoek naar moet worden gedaan omdat basale kennis ontbreekt. Tegelijkertijd zit het werkveld te springen om bruikbare kennis over manieren om zich te beschermen tegen cyberaanvallen. Dat laatste is iets wat we zeker gemerkt hebben het afgelopen jaar. Al voor de officiële start van het lectoraat Cybersecurity in het midden- en kleinbedrijf (mkb) stroomden de verzoeken binnen van gemeenten, brancheorganisaties en bedrijven om gezamenlijk onderzoek te doen. Dit is dan ook de reden dat we, ondanks dat het lectoraat nog geen jaar geleden is ingesteld, al flink wat onderzoeken voor en met de praktijk uitvoeren. De constatering dat onderzoek naar de menselijke factor binnen cybercrime en cybersecurity nog in de kinderschoenen staat terwijl er een grote vraag is naar evidence-based praktisch toepasbare kennis, is de reden dat De Haagse Hogeschool (HHs) en het Nederlands Studiecentrum Criminaliteit en Rechtshandhaving (NSCR) de handen ineengeslagen hebben voor de totstandkoming van dit lectoraat. Zowel De HHs als het NSCR hebben cybersecurity en cybercrime al enkele jaren geleden als prioriteit benoemd en hebben elk afzonderlijk onderzoeksprogramma’s op dit gebied. Voor De HHs geldt dat onderzoeken toepassingsgericht moeten zijn en dat de nieuwste onderzoeksmethoden en -technieken moeten worden toegepast om hoogwaardige producten op te leveren. Voor het NSCR geldt dat onderzoeken ook fundamentele kennis moeten opleveren. Het is echter steeds duidelijker dat bij onderzoek naar cybercrime en cybersecurity het beste van beide werelden nodig is. Het lectoraat heeft dan ook de nadrukkelijke opdracht deze twee onderzoeksprogramma’s te verbinden. Ik zal in deze inleiding een beknopte schets geven van de onderzoeksprogramma’s van deze organisaties en van de toekomstige onderzoeken binnen het lectoraat. LinkedIn: https://www.linkedin.com/in/rutgerleukfeldt/
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar.Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden.Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar. Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden. Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.
Digitale Held: Onderzoek naar serious gaming voor het vergroten van de kritische digitale vaardigheden en digitaal bewustzijn bij kwetsbare jongeren. Onderzoek uit 2022 laat zien dat Nederlandse jongeren en jongvolwassenen bovengemiddeld vaak slachtoffer van phishing zijn en lopen daardoor vaker financiële schade op. Daarnaast onderschatten jongeren de kans dat zij slachtoffer worden van vormen van cybercriminaliteit als identiteitsfraude en gegevensverlies door een datalek . Ook blijkt uit onderzoek dat nagenoeg de helft (47%) van de jongeren het eigen niveau van digitale vaardigheden overschat. Daarbij herkent een groot deel van de jongeren onveilig onlinegedrag minder goed en zijn ze sceptisch over wat ze van ouders en leraren kunnen leren . Dit leidt onder andere tot een stijging van het aantal kwetsbare jongeren die onder bewind staan. Daarbij lijkt een aanzienlijk deel van deze groep jongeren onder bewind een licht verstandelijke beperking (LVB) te hebben. Er is echter weinig bekend over de digitale vaardigheden en de inzichten op het eigen internetgedrag van deze jongeren met een LVB en schulden. Gezien de geringe tijd die bewindvoerders hebben om de zaken van deze personen te behartigen, is er geen tijd voor het aanleren van kritische digitale vaardigheden. Binnen het project wordt onderzoek gedaan naar het vergroten van kritische digitale vaardigheden en digitaal bewustzijn bij kwetsbare jongeren, waaronder jongeren met een LVB aansluitend op de missie Gezondheid en zorg, door de toepassing van serious gaming, bite-sized learning en sleuteltechnologie als artificial intelligence (AI). In het project werkt het Lectoraat Digitale Transformatie van de Hanzehogeschool Groningen samen met twee MKB-ondernemingen, ProBewind B.V. en de startup FamilyPay B.V., en met de Stichting Humanitas DMH. Daarnaast participeert het Innovatiehuis Politie Noord-Nederland als overige partij. Het project is een uitbreiding van een bestaand netwerk, waarbij nu verder onderzoek wordt uitgevoerd met publieke instellingen.