Joris Voorhoeve is verbonden aan de Haagse Hogeschool en de Universiteit Leiden, is oud-politicus en minister en kenner van de internationale betrekkingen. Met hem praten wij over het belang van de wetenschap, over de politieke drang om te scoren en de importantie van een lange-termijn strategie. Uiteraard bespreken we ook de laatste geopolitieke roddels en hoe het toch verder moet met het Europese defensiebeleid; door met de vertrouwde NAVO of wellicht een hechtere Europese samenwerking?
MULTIFILE
In maart 2011 dreigde Muammer Gaddafi van Libya duizenden onschuldige burgers van de stad Benghazi uit hun huizen te halen om hen te vermoorden. De Veiligheidsraad van de Verenigde Naties verwees de situatie door naar het Internationaal Strafhof in Den Haag, dwong een no-flyzone af en gaf de NAVO een mandaat om burgers te beschermen with all necessary means, met de uitzondering van grondtroepen. Deze operatie was snel, robuust en effectief. Het principe van The Responsibility to Protect (R2P) -de verantwoordelijkheid van de internationale gemeenschap om genocide, misdaden tegen de menselijkheid, etnische zuivering en oorlogsmisdaden te voorkomen en te stoppen- werd voor het eerst volledig toegepast. Is R2P daarmee een norm geworden? Dit onderzoek plaatst de casus Libië in het model van de "Norm Life Cycle" (de levenscyclus van een norm) van de Constructivistische theoretici Finnemore en Sikkink (1998). Libië toont aan dat R2P nu een tipping point (omslagpunt) heeft bereikt, en zich van de fase norm emergence (opkomende norm) naar de fase norm cascade heeft verplaatst. Er is echter een spanning ontstaan: de terughoudendheid van de Veiligheidsraad om R2P toe te passen in Syrië (2012) wijst de andere kant uit. Er is dus nog een lange weg te gaan, voordat R2P als een internalised norm (vanzelfsprekende norm) kan worden beschouwd. ABSTRACT In March 2011, Muammar Gaddafi of Libya threatened to pull thousands of civilian protesters in the city of Benghazi out of their homes and kill them. The Security Council of the United Nations referred the crisis to the International Criminal Court, imposed a no-fly zone and provided NATO with a mandate to protect civilians by all necessary means, with the exception of ground troops. This operation was fast, robust and effective. It also marked the first time that the Responsibility to Protect (R2P) principle was fully implemented, being the responsibility of the international community to prevent and respond to genocide, crimes against humanity and war crimes if the state in question is not able or not willing to protect its citizens itself. Has R2P become a new norm? This study situates the case of Libya in the 'Norm Life Cycle' model of Constructivist theorists Finnemore and Sikkink (1998). It suggests that R2P has reached a tipping point and has moved from the stage of norm emergence to the stage of norm cascade. However, a certain tension still exists: the reluctance of the Security Council to implement R2P again in the crisis in Syria (2012)points in the opposite direction. This suggests there is still a long way to go before R2P becomes an internalised norm in the international community.
DOCUMENT
AI4debunk is een vierjarige EU-innovatieactie, gefinancierd door Horizon Europe, gewijd aan de bestrijding van desinformatie. Het project brengt 13 partners uit acht landen samen om burgers te empoweren met door AI aangedreven tools. Te midden van toenemende nepnieuws en propaganda streeft AI4Debunk naar het bevorderen van betrouwbaar online gedrag, in navolging van de oproep van de Europese Commissie voor een verstandige toepassing van AI.
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar.Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden.Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar. Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden. Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.
Lectorate, part of HAS green academy