Abstract: The need for mental healthcare professionals in the Netherlands is increasing caused by the growth of patient complexity. The administration burden causes outflow of professionals and therefor they become increasingly scares. Improvement initiatives are aimed as the intended strategy and starts with (re)-structuring organizations through legislation and regulations. They entail both experienced and measured administration burden for healthcare professionals working in Long-Term Care (LTC). However, most studies only provide insight into the current administration burden or the impact of legislation and regulations on the administration burden from a broad perspective. These insights are useful to LTC managers, but more in-depth research is needed to implement laws and regulations to reduce the administration burden for LTC professionals in the future. The Compulsory Mental Healthcare Act (CMHA) was implemented in the Dutch mental healthcare and replaced the Special Admissions Act in Psychiatric Hospitals (SAAPH) on January 1, 2020. The aim of this study is to investigate the effect of the legislative transition and to determine the effect on the administration burden of Dutch mental healthcare professionals. A survey concerning the administration burden for especially psychiatrists before and after the transition was distributed to an addiction institute with a diversity of different mental healthcare professionals and a psychiatric institute that has been led by psychiatrists. Also some interviews with the lead professionals where held. The results show that the administration burden among psychiatrists has increased due to the contact with external healthcare providers and contact with the patient, family and their loved ones (a consequence of the amendment of the law). This effect was significant and in line with the results of the interviews. Therefor we conclude that the administration burden has increased as a result of the legislative amendment.
Blessures zijn één van de grootste problemen in de paralympische sport. Niet alleen is het aantal blessures hoog, maar ook de impact in het dagelijks leven is groot. In gesprekken met de beroepspraktijk (sporters, coaches, Embedded Scientist) komt de urgentie van dit probleem met name naar voren bij rolstoelsporters. In dit geval kan een blessure namelijk een acute bedreiging vormen voor de zelfredzaamheid, omdat zij in het dagelijks leven ook afhankelijk zijn van de rolstoel. Helaas is het voorkomen van blessures op dit moment moeilijk door de verscheidenheid aan blessures en onduidelijkheid over wat de oorzaken van deze blessures zijn. Hierbij speelt de complexiteit van het probleem een grote rol omdat allerlei factoren belangrijk kunnen zijn, zoals onder andere de belasting in het dagelijks leven, mentale aspecten en de slaapkwaliteit van de atleten. In dit project willen we de eerste stappen zetten om te achterhalen wat de risicofactoren zijn voor het oplopen van een overbelastingsblessure in rolstoelsporten. Om dit bereiken stellen we een integrale en data gedreven aanpak voor, waar Artificiële Intelligentie en Data Science een essentiële rol spelen. Op deze manier willen we de invloed van alle aspecten tegelijk bekijken en ook de mogelijke wisselwerkingen tussen de potentiële risicofactoren. In samenwerking met praktijkpartners, kennisinstellingen en bedrijven willen we verkennen wat noodzakelijk is voor onze integrale aanpak van blessurepreventie in rolstoelsporten. De opbrengst van dit project is een ingediende vervolgaanvraag met een goed afgebakende onderzoeksvraag en een sterk consortium. Ook zal een data-infrastructuur worden ontwikkeld, die gebruiksvriendelijk is voor de rolstoelsporter en de data gedreven aanpak naar blessurepreventie mogelijk maakt.
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar.Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden.Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar. Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden. Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.