1e alinea column: De kwetsbaarheid van onze IT-infrastructuur en informatiesystemen is de afgelopen jaren uitgegroeid tot een levensgroot issue. Van het Diginotar-debacle tot het lekken van medische gegevens van honderdduizenden Nederlanders, keer op keer wordt duidelijk dat de beveiliging van gevoelige informatiesystemen te wensen overlaat en dat dat leidt tot grote schade. Tegelijkertijd is er maar weinig verbetering in de beveiliging van onze systemen en lijkt het soms alsof we de afgelopen 10 jaar geen meter opgeschoten zijn. We lossen het maar niet op.
LINK
De cybersecuritybranche hamert al enige tijd op het feit dat een toenemend aantal organisaties te maken krijgt met verscherpte securityregels. Niet alleen omdat de NIS2- richtlijn en de opvolger van de Wet Beveiliging Netwerk- en Informatiebeveiliging (Wbni). Maar vooral om dat cyberdreigingen steeds complexer en aanvallen professioneler worden. Informatiesystemen blijven kwetsbaar en daar moet je je tegen wapenen. Niet in de laatste plaats omdat de IT-omgeving inmiddels zo nauw geïntegreerd is met de OT infrastructuur, dat continuïteit van processen die ons helpen in het dagelijks leven onder druk komt te staan. Van slagbomen voor parkeerterreinen tot waterpompen en sluizen om ons land droge voeten te garanderen. Voor toekomstige bedrijfsinnovatie is verdere integratie van systemen ook noodzakelijk. En uw securitybeleid helpt hierbij.
DOCUMENT
De Hogeschool van Amsterdam (HvA), Hogeschool Rotterdam (HR), Hogeschool Utrecht (HU) en de kernpartners Gemeenten Amsterdam en Rotterdam, Provincies Zuid-Holland en Utrecht, Cupola XS, Media Perspectives en CGI, hebben de ambitie om de komende acht jaar een krachtige onderzoeksgroep op te bouwen die regionaal en nationaal wordt (h)erkend als hét centrum voor praktijkgericht onderzoek op het gebied van Responsible Applied AI. Deze SPRONG-groep bouwt voort op bestaande onderzoeksgroepen met complementaire expertise van het Centre of Expertise Applied Artificial Intelligence van de HvA, het Datalab: Livinglab voor AI & Ethiek van HR en het Kenniscentrum Digital Business & Media van de HU. Responsible Applied AI methodologie Huidig AI-onderzoek is veelal fundamenteel en op de technologie gericht en voorziet daarmee tot nu toe nauwelijks in antwoorden op vragen hoe AI op een verantwoorde wijze te implementeren. De SPRONG-groep verricht onderzoek naar verantwoorde AI oplossingen voor bedrijven en instellingen. Met de onderzoekservaringen en resultaten heeft de SPRONG-groep vervolgens het doel om een Responsible Applied AI methodologie te ontwikkelen die helpt om AI oplossingen te ontwerpen, ontwikkelen en implementeren. Co-creatie in hybride leeromgevingen Om deze methodologie te ontwikkelen, is kennisopbouw en -deling nodig die onderzoekers samen ontwikkelen met de beroepspraktijk. Startpunt is daarom de (door)ontwikkeling van drie hybride leeromgevingen rondom de toepassingsgebieden Retail, Zakelijke dienstverlening en Media, waarin ontwerpers, AI-ontwikkelaars, probleemeigenaren, eindgebruikers, onderzoekers en studenten samen optrekken. Gedurende het SPRONG-programma wordt het aantal toepassingsgebieden uitgebreid en waar mogelijk nationaal opgeschaald. Aan iedere leeromgeving zijn specifieke opleidingen en praktijkpartners verbonden die meedenken over het programma. Doel is om vanuit de infrastructuur van de leeromgeving praktische tools, instrumenten, onderwijs en trainingen te ontwikkelen die breed inzetbaar zijn. Ondersteunende infrastructuur Centraal wordt een ondersteunende infrastructuur doorontwikkeld, waaronder processen en voorzieningen voor data-management en strategisch personeelsmanagement, een IT-Infrastructuur, trainingen en een impact-model.
De opkomst van Artificiële Intelligentie (AI) verandert de marketingsector ingrijpend door de kansen die het biedt, zoals het automatiseren van marketingtaken, voorspellen van consumentengedrag of personaliseren van aanbod. Tegelijkertijd brengt de inzet van AI potentieel negatieve neveneffecten met zich mee, zoals inbreuk op menselijke waarden als privacy of autonomie. Dit creëert een maatschappelijke vraag naar verantwoord gebruik van AI, vanuit naleving van juridische kaders, met aandacht voor ethische overwegingen en met respect voor maatschappelijke waarden. Waar van marketingprofessionals primair wordt verwacht om (economische) waarde te creëren voor hun organisatie en klanten, wordt daarmee ook in toenemende mate van hen verwacht om op respectvolle wijze waarde te creëren voor diverse stakeholders, en om bij te dragen aan bredere maatschappelijke belangen. Waar grote bedrijven doorgaans de middelen hebben om aan bovengenoemde verwachtingen te voldoen, zoals budget, specialistische kennis en IT-infrastructuur, leidt de beperkte beschikbaarheid hiervan bij mkb-ondernemers tot een barrière voor verantwoord AI inzet. Om deze barrière te slechten, richt voorliggend project zich op het bieden van concrete handelingsperspectieven voor het mkb op de vier voornaamste uitdagingen bij het verantwoord toepassen van AI in marketing: (1) technologische complexiteit; (2) meervoudige waardecreatie, (3) ethische afwegingen, en (4) juridische kaders. Via ontwerpgericht praktijkonderzoek wordt invulling gegeven aan de uitvoering van verantwoord AI in de marketingpraktijk. Vanuit onderzoek naar de specifieke behoeften van het mkb wordt een praktisch instrumentarium ontwikkeld, bestaande uit ethische richtlijnen, technologische hulpmiddelen, juridische ondersteuning en praktisch toepasbare modellen voor meervoudige waardecreatie. Dit stelt marketingprofessionals in het mkb in staat om met hun organisatie competitief te opereren in een almaar digitaliserende markt, en tegelijkertijd te voldoen aan de veranderende verwachtingen van klanten, samenleving en regelgeving, met maatschappelijke verantwoordelijkheid voor hun marketingactiviteiten. De resultaten van dit project zullen daarmee met name doorwerking vinden in de marketingpraktijk alsook in het onderwijs van (aankomende) marketingprofessionals.