Vandaag de dag loopt de discussie over AI hoog op: wat betekent AI voor verschillende beroepen? Welke competenties zijn straks wellicht niet meer relevant en welke juist des te meer? En wat betekent AI voor het onderwijs? Hoog tijd dus om in het onderwijs aandacht te besteden aan het versterken van AI-geletterdheid. Ofwel de competenties die nodig zijn om AI-technologieën kritisch te kunnen evalueren, er effectief mee te kunnen communiceren en mee samen te werken, zowel thuis als op de werkplek, zodat studenten klaar zijn voor een wereld vol AI Antwoord op deze en andere vragen vind je in deze publicatie van het lectoraat Teaching, Learning & Technology zodat je in zeven minuten weer bent bijgepraat over AI geletterdheid. # AI-geletterdheid #teachinglearningandtechnology #inholland
DOCUMENT
De opkomst van Chat GPT laat zien hoe AI ingrijpt in ons dagelijks leven en het onderwijs. Maar AI is meer dan Chat GPT: van zoekmachines tot de gezichtsherkenning in je telefoon: data en algoritmes veranderen de levens van onze studenten en hun toekomstige werkveld. Wat betekent dit voor de opleidingen in het HBO waar voor wij werken? Voor de inspiratie-sessie De maatschappelijke impact van AI tijdens het HU Onderwijsfestival 2023 hebben wij onze collega’s uitgenodigd om samen met ons mee te denken over de recente AI-ontwikkelingen. We keken niet alleen naar de technologie, maar juist ook naar de maatschappelijke impact en wat de kansen en bedreigingen van AI zijn voor een open, rechtvaardige en duurzame samenleving. Het gesprek voerde we met onze collega’s (zowel docenten als medewerkers van de diensten) aan de hand van drie casussen met. De verzamelde resultaten en inzichten van deze gesprekken zijn samengebracht op een speciaal ontwikkelde poster voor de workshop (zie figuur 1). We hebben deze inzichten gebundeld en hieronder zijn ze te lezen.
DOCUMENT
Wereldwijd zijn er veel initiatieven op het gebied van kunstmatige intelligentie (AI) die gebruik maken van slimme algoritmen, die op basis van trainingsgegevens meer verbanden kunnen leggen dan voor een menselijk brein mogelijk is. Nu er meer AI in gebruik is, rijzen er zorgen over discriminatie van bepaalde individuen of groepen. Het aantal voorbeelden van AI die onbedoeld vooroordelen bevatten of om een andere reden tot oneerlijke uitkomsten leiden, neemt toe
DOCUMENT
De vraag: ‘Zal kunstmatige intelligentie (AI) mijn werk vervangen?’ is steeds vaker te horen, specifiek ook onder artsen in ziekenhuizen. AI wordt tegenwoordig ingezet voor allerlei doeleinden in de zorg, variërend van diagnoses stellen tot opereren. De belofte is dat AI de zorg efficiënter en nauwkeuriger maakt, maar er heerst ook onzekerheid onder artsen over de impact op hun werk. Om de vaak gestelde vraag te kunnen beantwoorden of en hoe AI het werk van de arts vervangt, is inzicht nodig in wat dat werk precies inhoudt. Daarvoor introduceren we het woord ‘vakmanschap’. Vakmanschap staat voor bekwaamheid in een vak. We onderzoeken hoe AI het vakmanschap van de arts beïnvloedt en houden rekening met diverse medische specialismen en typen AI. Vervolgens maken we de vertaalslag naar hoe impact van AI op vakmanschap mee te nemen in een verantwoord ontwerp- en implementatieproces van AI. Ons consortium vertegenwoordigt de stem van de arts in ziekenhuizen, het perspectief rondom ‘vakmanschap’ en een veranderende arbeidsmarkt, het perspectief van de AI-ontwikkelaar, de methodische kennis rondom de KEM Ethiek & Verantwoordelijkheid en het mensgericht ontwerpen perspectief. Uiteindelijk beogen we zorg duurzaam te kunnen verlenen met een optimale interactie tussen arts en AI.
Journalisten die veel interactie met hun publiek hebben (zoals consumentenprogramma’s) ontvangen via diverse, vaak besloten, kanalen (Facebook Messenger, WhatsApp, e-mail, fora) een grote stroom tips en/of berichten. Radio Dabanga, bijvoorbeeld, een op Soedan gericht radiostation in Amsterdam en ook een redactie met veel publieksinteractie, krijgt alleen al via WhatsApp 500-3000 berichten per dag. Met een redactie van twee mensen kan niet alles gelezen worden. Maar zelfs als dat kon, dan kan nog niet alles geverifieerd. Het gevolg is dat berichten gemist worden, dat Dabanga-journalisten vooral zoeken naar hun al bekende afzenders, en dat zij permanent het gevoel hebben belangrijke informatie te missen, waardoor zij hun contacten tekort te doen. Dit consortium onderzoekt of data science technieken hierbij kunnen helpen. Natural language processing technieken kunnen helpen de berichtenstroom beter te structureren waardoor tips over laag-frequente onderwerpen niet over het hoofd gezien worden. Recommender systemen kunnen ingezet worden om een betrouwbaarheidsindex te ontwerpen voor tot nog toe onbekende afzenders. Het resultaat is dan minder ondergesneeuwde tips en minder ondergesneeuwde afzenders. De uitkomsten worden getest met journalistenpanels. Bij goede resultaten uit bovenstaande onderzoeken, bouwt het consortium een prototype van de Berichtentemmer: een tool die helpt berichten uit diverse kanalen per onderwerp te structureren. Daardoor kunnen journalisten hun netwerken beter en efficiënter benutten. Bij het bouwen van deze tool hoort ook dat de gebruikte algoritmen transparant moeten zijn voor de journalist en de presentatie van de resultaten niet sturend mag zijn. Het consortium bestaat daarom uit een ‘Data science’-projectgroep voor het ontwerpen en testen van de algoritmen, en uit een ‘Ethiek & design’-projectgroep voor het ontwerpen van richtlijnen over transparantie van de algoritmen en de datavisualisatie. Tenslotte is er een ontwikkelgroep bestaande uit een combinatie van studenten en professional developers. Zij bouwen het prototype.
Dit promotieproject richt zich op Conversational Agents en hun rol in de dienstverlening in het publieke domein. Geautomatiseerde vormen van communicatie komen steeds vaker voor. Dit roept vragen op over het opbouwen van relaties, vertrouwen, vormen van servicegebruik en data-ethiek.
Centre of Expertise, onderdeel van Fontys