Report of the project 'FAIR: geen woorden maar data' about the FAIRification of research data (in Dutch). It describes the proof of concept for implementation of the FAIR principles. The implementation is based on the resource description framework (RDF) and semantic knowledge representations using ontologies.
A new bookkeeping system called Jiskefet is being developed for A Large Ion Collider Experiment (ALICE) during Long Shutdown 2, to be in production until the end of LHC Run 4 (2029). Jiskefet unifies two function- alities: a) gathering, storing and presenting metadata associated with the oper- ations of the ALICE experiment and b) tracking the asynchronous processing of the physics data. It will replace the existing ALICE Electronic Logbook and AliMonitor, allowing for a technology refresh and the inclusion of new fea- tures based on the experience collected during Run 1 and Run 2. The front end leverages web technologies much in use nowadays such as TypeScript and NodeJS and is adaptive to various clients such as tablets, mobile devices and other screens. The back end includes an OpenAPI specification based REST API and a relational database. This paper will describe the organization of the work done by various student teams who work on Jiskefet in sequential and parallel semesters and how continuity is guaranteed by using guidelines on coding, documentation and development. It will also describe the current status of the development, the initial experience in detector stand-alone commissioning setups and the future plans.
Materieelonderhoud vormt de ruggengraat van de operationele inzetbaarheid van Defensie. Het Commando Materieel en IT en de Directie Maritieme Instandhouding spelen hierbij een centrale rol, ondersteund door onderzoek van de Nederlandse Defensie Academie. Het verzamelen van betrouwbare faaldata is essentieel voor voorspellend onderhoud en prognostics, maar vaak schaars. Daarom is het Dutch Prognostics Lab (DPL) opgericht, een samenwerking tussen onder andere NLDA, Universiteit Twente, De Haagse Hogeschool en Hogeschool van Amsterdam, gericht op het genereren en standaardiseren van onderhoudsdata. In dit KIEM project ‘Defensie Datastraat voor Slim Onderhoud’ (DefDSO) zetten de NLDA, DMI HHS en de HvA het gedachtegoed van DPL voort in voorbereiding op een overkoepelend project. DefDSO beantwoordt de vraag: hoe kan Defensie voorspellend onderhoud verbeteren door gestandaardiseerde data en fysieke testsystemen? Het doel is het ontwikkelen van een uniforme infrastructuur voor Prognostics and Health Management, die onderhoud efficiënter maakt en uitvaltijd minimaliseert. In DefDSO ligt de focus op het automatiseren van het genereren, uitlezen, opslaan, en delen van onderhoudsdata en het invoeren van een uniforme metadata-standaard. Het project levert belangrijke resultaten op: een standaard voor datasets die interoperabiliteit binnen Defensie bevordert, de integratie van PHM in defensieonderdelen, een onderzoeksagenda voor PHM-technologieën en een kennisinfrastructuur die samenwerking tussen Defensie en kennisinstellingen versterkt. Om deze doelen te bereiken, omvat het project vier werkpakketten. Het eerste richt zich op het standaardiseren van sensordata en het ontwikkelen van protocollen. Het tweede werkpakket harmoniseert bestaande datasets naar deze nieuwe standaard. Het derde werkpakket stelt een onderzoeksagenda op voor verdere implementatie van PHM binnen Defensie. Met dit project zet Defensie een belangrijke stap richting toekomstbestendig onderhoud door innovatie en samenwerking centraal te stellen. Het legt niet alleen de basis voor efficiënter onderhoud, maar versterkt ook de structurele samenwerking tussen Defensie en kennisinstellingen, wat bijdraagt aan de operationele capaciteit en technologische vooruitgang.
Het basisonderwijs heeft behoefte aan lesprogramma’s die kinderen weerbaar maken tegen nepnieuws op internet en sociale media. Er bestaat al wel lesmateriaal maar tot nu toe ontbreekt er kennis over de vraag welke van deze materialen goed werken. Doel van het project is het vinden van gevalideerde methoden voor het leren onderscheiden van nepnieuws en echt nieuws. Er wordt een literatuurstudie gedaan naar bestaand lesmateriaal dat geschikt is voor kinderen uit de laatste jaren van het basisonderwijs. De kennis die wordt opgedaan, wordt gebruikt voor het samenstellen van een eigen lessenreeks waarvan wordt aangenomen dat die een positief effect heeft op het vermogen van kinderen om onderscheid te maken tussen echt nieuws en nepnieuws. Om te onderzoeken of deze veronderstelling klopt, wordt de te ontwikkelen lessenreeks uitgevoerd voor leerlingen van groep 7 of 8 van de J.H. Snijdersschool te Rijswijk en worden de vorderingen van de leerlingen tussentijds gemonitord. De J.H. Snijdersschool is een basisschool die innovatie en het gebruik van ict in het onderwijs hoog in het vaandel heeft staan. Ook op dit moment maakt de school al gebruik van programma’s op het gebied van mediawijsheid (https://www.lucasacademie.nl/themalijnen/innovatie?aid=66&activiteit=Kijk-je-Rijk:-ICT-mogelijkheden-in-het-onderwijs-op-de-JH-Snijdersschool). De aanname is de dat leeractiviteiten zullen bestaan uit: • het opsporen of creëren van nieuwsitems door de kinderen zelf • het vastleggen van gevonden nieuwsitems door metadata te noteren en • het beoordelen van de betrouwbaarheid van nieuwsitems. De lessenreeks wordt getest door het uitvoeren van het vast te stellen programma gedurende vijf achtereen volgende lesweken. Wekelijks vindt er een korte test plaats om vast te stellen hoe goed de kinderen in staat zijn om echt nieuws van nepnieuws te onderscheiden. De progressie van de kinderen wordt vastgesteld met behulp van een Friedman test.
De Nederlandse media-industrie merkt elke dag hoe groot de impact is van het voortschrijdende proces van digitalisering en dataficering. De transitie van analoge (broadcast) naar digitale (Over-The-Top) netwerken zorgt er niet alleen voor dat mensen inmiddels televisie kunnen kijken op ieder gewenst moment met het apparaat dat ze uitkomt, het maakt tevens echte interactie mogelijk met de kijker. Bij die interactie wordt allerhande data over de gebruiker verzameld. De kansen om hiermee nieuwe diensten te ontwikkelen blijven echter veelal onbenut. Vooral voor interactieve mediabedrijven ligt hier een kans omdat het hun apps zijn die grote hoeveelheden gebruikersdata verzamelen. Interactieve mediabedrijven hebben echter momenteel een kennishiaat om de gebruikersdata uit hun apps zodanig te analyseren dat nieuwe inzichten ontstaan waarop bestaande diensten (continu) verbeterd kunnen worden, nieuwe diensten voor hun klanten kunnen worden ontwikkeld én zij zelf diensten kunnen gaan vermarkten vanuit een zelfstandige positie. De praktijkvraag van interactieve mediabedrijven is tijdens verschillende vraagarticulatiebijeenkomsten als volgt verwoord: Hoe kunnen wij als interactieve mediabedrijven beter inzicht krijgen in de waarde van de gebruikersdata en hoe kunnen we op basis hiervan nieuwe business modellen ontwikkelen om zelfstandig te kunnen opereren? Hogeschool van Amsterdam en Hogeschool Utrecht gaan samenwerken aan deze praktijkvraag in zes experimenten. In de experimenten zullen A/B testen worden uitgevoerd waarbij een bestaande app (versie A) zal worden vergeleken met een aangepaste versie van de app (versie B). De aanpassingen zullen plaatsvinden op basis van de geanalyseerde mogelijkheden die de geanonimiseerde gebruikersdata biedt in combinatie met geëxpliciteerde gebruikerswensen van de doelgroepen. Het effect zal worden gemeten op aspecten zoals gebruikerservaring, user engagement, koopintentie en waardering. Naast de zes aangepaste apps levert de cumulatieve kennis die wordt opgebouwd in de experimenten een stappenplan op die gebruikersdata tot een centraal onderdeel zal maken van het eigen business model van interactieve mediabedrijven, én een platform voor uitwisseling van metadata, data-uitwisselings en data-analyse logica.