Completeness of data is vital for the decision making and forecasting on Building Management Systems (BMS) as missing data can result in biased decision making down the line. This study creates a guideline for imputing the gaps in BMS datasets by comparing four methods: K Nearest Neighbour algorithm (KNN), Recurrent Neural Network (RNN), Hot Deck (HD) and Last Observation Carried Forward (LOCF). The guideline contains the best method per gap size and scales of measurement. The four selected methods are from various backgrounds and are tested on a real BMS and metereological dataset. The focus of this paper is not to impute every cell as accurately as possible but to impute trends back into the missing data. The performance is characterised by a set of criteria in order to allow the user to choose the imputation method best suited for its needs. The criteria are: Variance Error (VE) and Root Mean Squared Error (RMSE). VE has been given more weight as its ability to evaluate the imputed trend is better than RMSE. From preliminary results, it was concluded that the best K‐values for KNN are 5 for the smallest gap and 100 for the larger gaps. Using a genetic algorithm the best RNN architecture for the purpose of this paper was determined to be GatedRecurrent Units (GRU). The comparison was performed using a different training dataset than the imputation dataset. The results show no consistent link between the difference in Kurtosis or Skewness and imputation performance. The results of the experiment concluded that RNN is best for interval data and HD is best for both nominal and ratio data. There was no single method that was best for all gap sizes as it was dependent on the data to be imputed.
MULTIFILE
Hoe overbruggen we de kloof tussen accountant en dataspecialist? Deel 2 van een drieluik over data-analyse. In een eerder artikel is de buitenste ring van het 'VTA-model toegelicht'. In dit vervolgartikel worden de twee binnenste ringen besproken.
DOCUMENT
Completeness of data is vital for the decision making and forecasting on Building Management Systems (BMS) as missing data can result in biased decision making down the line. This study creates a guideline for imputing the gaps in BMS datasets by comparing four methods: K Nearest Neighbour algorithm (KNN), Recurrent Neural Network (RNN), Hot Deck (HD) and Last Observation Carried Forward (LOCF). The guideline contains the best method per gap size and scales of measurement. The four selected methods are from various backgrounds and are tested on a real BMS and meteorological dataset. The focus of this paper is not to impute every cell as accurately as possible but to impute trends back into the missing data. The performance is characterised by a set of criteria in order to allow the user to choose the imputation method best suited for its needs. The criteria are: Variance Error (VE) and Root Mean Squared Error (RMSE). VE has been given more weight as its ability to evaluate the imputed trend is better than RMSE. From preliminary results, it was concluded that the best K‐values for KNN are 5 for the smallest gap and 100 for the larger gaps. Using a genetic algorithm the best RNN architecture for the purpose of this paper was determined to be Gated Recurrent Units (GRU). The comparison was performed using a different training dataset than the imputation dataset. The results show no consistent link between the difference in Kurtosis or Skewness and imputation performance. The results of the experiment concluded that RNN is best for interval data and HD is best for both nominal and ratio data. There was no single method that was best for all gap sizes as it was dependent on the data to be imputed.
DOCUMENT
Energysense is een dataverzamelings- en onderzoeksplatform terondersteuning van onderzoek naar de energietransitie. Sinds 2015worden meterstanden van deelnemende huishoudens verzameld. Hetbetreft gasmeterstanden per uur, en elektriciteitsmeterstanden(verbruik en teruglevering) per kwartier.
DOCUMENT
1e alinea column: Internet, social media, en al dan niet location based mobiele data hebben impact op de zichtbaarheid van de burger als consument, op business logica modellen en op hoe organisaties eruit gaan zien qua inrichting om in deze veranderende markt te overleven. In deze column de veranderingen in vogelvlucht en in onderling verband.
LINK
Het lectoraat Teaching, Learning & Technology onderzoekt de didactische inzet van technologie in leerprocessen. Hierbij kijkt het lectoraat naar thema’s als flexibilisering, gepersonaliseerd leren, activerende didactiek en de effecten van de inzet van technologie in de onderwijspraktijk en dan met name het hoger beroepsonderwijs. Wat tot op heden nog niet was onderzocht was of eerder uitgevoerd onderzoek een aantoonbare impact heeft gehad op de onderwijspraktijk. Dit onderzoek is de eerste fase in het inzichtelijk maken van de impact van onderzoek dat het lectoraat Teaching, Learning & Technology (TLT) van hogeschool Inholland heeft uitgevoerd. Er is daarbij gekeken naar onderzoek in de periode 2010 – 2021. De doelstelling is weer te geven hoe in eerder onderzoek beïnvloedbare impactfactoren zijn vormgegeven. Op basis van deze beschrijving kunnen wellicht aanbevelingen worden gedaan aan het lectoraat waarmee de impact van door hen uitgevoerd onderzoek in relatie tot deze factoren, vergroot kan worden. De onderzoeksvraag is: Hoe beschrijven belanghebbenden de impact van door het lectoraat Teaching, Learning & Technology uitgevoerd onderzoek in relatie tot de beïnvloedbare impactfactoren aangaande het onderzoek, de disseminatie en de (ervaren) gebruikswaarde? Voor het beantwoorden van deze onderzoeksvraag maakten we gebruik van een convergent mixed methods design, waarbij een nieuw conceptueel model als basis diende voor de analyse van data uit het praktijkonderzoek. Daarbij hebben we drie typen data verzameld, namelijk een kwalitatieve documentanalyse (N=31), een survey (N=6) en semi-gestructureerde interviews met participanten van de survey (N=4). Uit het onderzoek bleek dat belanghebbenden vooral de onderzoeker aanwijzen als primaire bron van impact. Impact begint en eindigt bij de onderzoeker, vooral in de mate waarin die zich inzet om het onderzoek relevant te maken en te laten aansluiten op vragen vanuit de onderwijspraktijk. Ten aanzien van de wijze waarop impact in toekomstig onderzoek kan worden bewerkstelligd, benoemen we een aantal aandachtspunten. Deze aanbevelingen zijn vooral gericht op de wijze waarop onderzoekers van het lectoraat gestructureerd aandacht kunnen besteden aan de vormgeving van de samenwerking en aan het concreet in beeld brengen van verwachtingen en beoogde impact in een vroegtijdig stadium.
DOCUMENT
Voor de komende jaren wordt een toename in elektrisch vervoer voorzien. Naast lichte elektrische vrachtvoertuigen betreft het elektrische bestel- en vrachtwagens met een hoger laadvermogen. Het opladen van die elektrische voertuigen betekent een extra belasting voor de elektrische infrastructuur.Gebruikers weten vaak niet wat ze al aan elektriciteit verbruiken op hun locatie, en (dus) ook niet wat ze nog kunnen uitbreiden met elektrische voertuigen binnen de huidige aansluitvoorwaarden. Door de Hogeschool van Amsterdam is daartoe het EVEC (Electric Vehicle Expansion Calculator) model ontwikkeld. Met informatie over de verschillende laadbehoeften van EV’s en op basis van data van het eigen energieverbruik, (uit de slimme meter of met zelf gemeten data), is met het model inzicht te verkijgen in wat er nog mogelijk is op de locatie.
DOCUMENT
De missie van het lectoraat Fotonica is om een bijdrage te leveren aan een gezonde wereld en een duurzame economie door het toepasbaar maken van fotonicatechnologie in de praktijk. Ook draagt het lectoraat bij aan het opleiden van professionals op het gebied van fotonica, wat een voorwaarde is om de ambities van deze groeisector waar te kunnen maken. Het fotonica-onderzoek richt zich op de toepassingsgebieden Hightech Industrie, Agri & Food, Energie & Klimaat, Gezondheid en Mobiliteit. Digitale technologie speelt in de ontwikkeling van deze gebieden een grote rol, waarbij fotonica op grote schaal wordt ingezet voor het verkrijgen van digitale data. Sleutelwoorden voor het onderzoek zijn spectroscopie, metrologie en afbeelding. Het toepassen van optische sensoren, zoals spectrometers of glasvezel-gebaseerde sensoren, speelt hierbij een centrale rol. De lijfspreuk van de natuurkundige Heike Kamerlingh Onnes ‘door meten tot weten’, aangevuld met ‘door weten tot handelen’, is dan ook een leidraad voor het lectoraat.
DOCUMENT
Voordat een visualisatie tot stand komt, is daar een complex proces aan vooraf gegaan. Doel en doelgroepen worden vastgesteld (‘hoe bereiken we welk effect bij wie?’) terwijl daarnaast de relatie tussen de data en de uiteindelijke visualisatie gedefinieerd moet worden (‘hoe laten we wat zien?’). De productie en de receptie van een visualisatie zijn twee te onderscheiden processen. Bij het maakproces spelen vakkennis, design, technische mogelijkheden, brongegevens, doelgroep, mediakeuze en doelstelling een belangrijke rol. Bij receptie gaat het erom of en hoe de doelgroep de boodschap ontvangt: wordt die waargenomen en begrepen? En wat zijn de gevolgen bij de gebruiker? Hoewel receptie in de tijd volgt op het productieproces, spelen verwachtingen over receptie een belangrijke rol bij het maken van informatievisualisaties. De kennis over publieksreacties op visuele boodschappen is echter op verschillende manieren vastgelegd. Bij designers en anderen die betrokken zijn bij het maakproces van informatievisualisaties is er sprake van een verzameling van working theories (McQuail, 2010, pp. 13-14) die vooral op ervaring is gebaseerd. Bij empirisch onderzoek daarentegen worden responses op visuele cues daadwerkelijk gemeten. Zie Deel II van dit onderzoek. Doelstelling van dit onderzoek is deze twee vormen van kennis met elkaar te vergelijken. De vraag is welke veronderstellingen en verwachtingen er bij de beroepspraktijk bestaan en in hoeverre deze gestaafd, aangevuld of weersproken worden door empirisch, wetenschappelijk gefundeerd, onderzoek.
DOCUMENT
Doelstelling: In kaart brengen van de risicofactoren voor het ontwikkelen van binoculaire diplopie na conventionele monovisie door middel van contactlenzen of refractiechirurgie bij presbyopen. Methode: Voor deze literatuurstudie is in maart 2017 gezocht in databanken Pubmed, ScienceDirect en Google Scholar. Artikelen zijn geïncludeerd als binoculaire diplopie door monovisie wordt beschreven. Alle patiënten die worden weergegeven in deze artikelen zijn ouder dan 40 jaar en hebben monovisie door middel van contactlenzen of refractiechirurgie. De resultaten beschrijven de oorzaken van de binoculaire diplopie, de voorgeschiedenis van de patiënt met betrekking tot strabismus en de hoogte van additie. Onderscheid wordt gemaakt tussen contactlensdragers en patiënten die refractiechirurgie hebben ondergaan. Resultaten: In deze literatuurstudie zijn zes artikelen verwerkt. Uit deze artikelen zijn 35 patiënten met binoculaire diplopie meegenomen in dit onderzoek, vijftien patiënten met contactlens geïnduceerde monovisie en twintig patiënten met refractiechirurgie geïnduceerde monovisie. De oorzaken van binoculaire diplopie (decompensatie van een heteroforie, een intermitterend strabismus die constant wordt, een verworven heterotropie, decompensatie van een N IV parese en fixation switch diplopie) geven geen grote verschillen in aantal patiënten. Een additie hoger dan twee dioptrie komt meer voor in deze patiëntengroep met binoculaire diplopie dan een lagere additie. Een positieve voorgeschiedenis met betrekking tot strabismus komt meer voor dan een negatieve voorgeschiedenis. Relevante verschillen tussen contactlensdragers en patiënten die refractiechirurgie hebben ondergaan zijn niet gevonden. Conclusie: Vanwege het gebrek aan consistente data is meer onderzoek nodig voor significante resultaten.
DOCUMENT