AI is een uitstekende tool om financiële fraudedetectie en de beoordeling van credit risks te versnellen, zo bleek uit afstudeeropdrachten die studenten van de masteropleiding AI aan de HvA afgelopen semeser bij de financiële opleidingen hebben uitgevoerd. Maar we zien soms dat beslissingen op basis van AI-systemen te rigoureus worden genomen.
LINK
Het doel van deze studie is het vergroten van het inzicht in hoe daders binnen de georganiseerde criminaliteit ICT gebruiken en welke invloed dat gebruik heeft op hun criminele bedrijfsprocessen. We richten ons daarbij niet uitsluitend op cybercrime, maar verkennen juist het gebruik van ICT én de consequenties daarvan voor een breder scala van soorten georganiseerde criminaliteit, dus ook ‘traditionele’ georganiseerde criminaliteit zoals drugssmokkel. Dit onderzoek maakt onderdeel deel uit van de Monitor Georganiseerde Criminaliteit. Een goed onderbouwde aanpak van de georganiseerde criminaliteit is alleen mogelijk wanneer er een gedegen inzicht bestaat in de aard van de georganiseerde criminaliteit zoals die zich in Nederland manifesteert. De Monitor Georganiseerde Criminaliteit biedt dat inzicht door zo veel mogelijk de kennis te benutten die wordt opgedaan tijdens omvangrijke opsporingsonderzoeken. Dit rapport is het resultaat van de meest recente, vijfde ronde van de monitor (eerdere rapportages: Kleemans et al., 1998, 2002; Van de Bunt & Kleemans, 2007; Kruisbergen et al., 2012). Om dieper op bepaalde thema’s in te kunnen gaan, is ervoor gekozen om de vijfde ronde uit te laten monden in drie afzonderlijke deelrapporten. In oktober 2017 is het eerste deelrapport verschenen (Van Wingerde & Van de Bunt, 2017). Dat rapport richtte zich op de strafrechtelijke afhandeling van georganiseerde criminaliteit, met name de geëiste en opgelegde straffen. Voor u ligt het tweede deelrapport, dat dus volledig in het teken staat van georganiseerde criminaliteit en ICT (informatieen communicatietechnologie). LinkedIn: https://www.linkedin.com/in/rutgerleukfeldt/
DOCUMENT
Bij een aan- of afwezigheidsdetectie zijn de moleculair diagnostische methoden (PCR) sneller dan de klassieke kweekmethode. De detectiegrenzen die de fabrikanten van beide PCR kits aangeven worden ruimschoots gehaald, terwijl detectie bij de klassieke kweekmethode regelmatig bemoeilijkt werd of onmogelijk was door stoorflora. Zowel deze flora als de matrix hebben geen invloed op de detectiegrens van beide PCR kits.
DOCUMENT
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar.Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden.Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar. Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden. Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.
Toepassingen gebaseerd op artificiële intelligentie (AI) worden steeds vaker ingezet voor het maken van keuzes en besluiten. Deze toepassingen worden echter ook steeds complexer. Het is in sommige gevallen niet of moeilijk na te gaan hoe een algoritme tot een besluit is gekomen. Wat de AI doet is als het ware ondoorzichtig. Dit geldt ook in de financiële sector, terwijl juist in deze sector vertrouwen een grote rol speelt.