Publinova logo
project

Uitlegbaarheid (explainability) van AI-systemen in de Europese digitale landbouw vanuit juridisch perspectief


Description

Mijn onderzoek richt zich op de uitlegbaarheid van kunstmatige intelligentie (AI)-systemen, met name in de landbouwsector. AI is weliswaar nuttig op verschillende gebieden, maar kan complex en ondoorzichtig zijn en mogelijk inbreuk maken op grondrechten. Deze ‘black box’-modellen hebben geleid tot de ontwikkeling van 'explainable AI' (hierna: XAI), die tot doel heeft AI-besluitvormingsprocessen begrijpelijk te maken voor mensen.

In de landbouw worden AI-toepassingen steeds belangrijker. Deze modellen kunnen echter onvoldoende transparant zijn, wat cruciaal is voor het vertrouwen van boeren in AI-systemen en de acceptatie ervan.

De Europese AI-Verordening heeft tot doel dergelijke AI-systemen te reguleren op basis van hun risiconiveau. De verordening bevat regels over uitlegbaarheid, die kunnen worden geïnterpreteerd als XAI-vereisten, maar de interpretatie en meting ervan blijven onduidelijk.

Mijn onderzoek heeft tot doel de theoretische betekenis en praktische toepassing van uitlegbaarheid als wettelijk vereiste voor (hoog-risico) AI-systemen in de EU te onderzoeken. Met doctrinair en empirisch onderzoek worden juridische theorie en praktische implicaties gecombineerd. Ik onderzoek hoe uitlegbaarheid kan worden geoperationaliseerd gedurende de hele AI-lifecycle van AI-systemen voor landbouw, om te bepalen wat de praktijk nodig heeft.


Products

This project has no products