In dit systematische literatuuronderzoek is kennis uit empirisch onderzoek in kaart gebracht over de werkzaamheid van werkwijzen voor reclasseringstoezicht. Werkzaamheid is daarbij gedefinieerd als: bijdragen aan recidivevermindering, beter functioneren van cliënten op verschillende gebieden of voorkomen van overtreding van voorwaarden en uitval. Op grond van een systematische verkenning van de (inter)nationale literatuur zijn 141 artikelen en rapporten geselecteerd en geanalyseerd. Van de volgende werkwijzen is voldoende empirische onderbouwing om te stellen dat deze werkzaam zijn in reclasseringstoezicht: • Hybride werken: combinatie van monitoring en begeleiding. • Inzetten van de zogenoemde RNR-principes als basis voor reclasseringstoezicht: ➢ Intensiviteit van de aanpak sluit aan bij het recidiverisico; ➢ Focus op dynamische criminogene factoren; ➢ Een cognitief-gedragsmatige aanpak, die is afgestemd op de krachten, motivatie, mogelijkheden, beperkingen en situatie van de cliënt. • Continuïteit in de relatie tussen reclasseringswerker en cliënt. • Een goede relatie / werkalliantie tussen reclasseringswerker en cliënt. • Prosociaal modelleren: voorbeeldgedrag laten zien, positief waarderen van prosociale uitingen en gedragingen door de cliënt, en afkeuren van procriminele uitingen en gedragingen. • Inzetten van cognitief gedragsmatige technieken. • Cliënten ondersteunen bij het versterken van hun vermogen om problemen op te lossen. • Ondersteunen bij het aangaan en onderhouden van prosociale bindingen en het doorbreken van sociale contacten die delictgedrag bevorderen.
Explainable Artificial Intelligence (XAI) aims to provide insights into the inner workings and the outputs of AI systems. Recently, there’s been growing recognition that explainability is inherently human-centric, tied to how people perceive explanations. Despite this, there is no consensus in the research community on whether user evaluation is crucial in XAI, and if so, what exactly needs to be evaluated and how. This systematic literature review addresses this gap by providing a detailed overview of the current state of affairs in human-centered XAI evaluation. We reviewed 73 papers across various domains where XAI was evaluated with users. These studies assessed what makes an explanation “good” from a user’s perspective, i.e., what makes an explanation meaningful to a user of an AI system. We identified 30 components of meaningful explanations that were evaluated in the reviewed papers and categorized them into a taxonomy of human-centered XAI evaluation, based on: (a) the contextualized quality of the explanation, (b) the contribution of the explanation to human-AI interaction, and (c) the contribution of the explanation to human- AI performance. Our analysis also revealed a lack of standardization in the methodologies applied in XAI user studies, with only 19 of the 73 papers applying an evaluation framework used by at least one other study in the sample. These inconsistencies hinder cross-study comparisons and broader insights. Our findings contribute to understanding what makes explanations meaningful to users and how to measure this, guiding the XAI community toward a more unified approach in human-centered explainability.
MULTIFILE