Social media zijn momenteel het gesprek van de dag. In slechts enkele jaren tijd hebben social media sites als YouTube, Facebook en LinkedIn een miljoenenpubliek aan zich gebonden. En het aantal consumenten en bedrijven dat gebruik maakt van deze online platformen groeit nog steeds sterk. Hoewel er dagelijks nieuwe cijfers verschijnen over het gebruik van social media is er vooralsnog weinig bekend over de adoptie van social media door bedrijven. Middels dit boek willen de onderzoekers van het lectoraat Online Ondernemen van de Hogeschool van Amsterdam een bijdrage leveren aan het opvullen van deze kennisleemte door het social media gebruik binnen de detailhandel in Nederland in kaart te brengen. Het boek bevat de resultaten van een onderzoek naar gebruik van de social media sites Hyves, Facebook, LinkedIn, YouTube, weblogs, Twitter en fora door (web)winkels en consumenten in Nederland. Welke social media sites worden veel en welke weinig gebruikt door (web)winkels en consumenten in Nederland? Wat zijn de kenmerken van de (web)winkels en consumenten die voorop lopen en achterblijven in het gebruik van social media platformen? In hoeverre zijn Nederlanders geïnteresseerd in het volgen van commerciële bedrijven via social media? Hoeveel volgers hebben (web)winkels op Hyves, Facebook, LinkedIn, YouTube en Twitter? Op deze en andere vragen over het gebruik van social media in de detailhandel in Nederland wordt in dit boek antwoord gegeven.
Het project PreciSIAlandbouw heeft precisielandbouwtechnieken ontwikkeld en gevalideerd op vijf thema's: sensortechnologie, kennis en advies, robotisering, digitalisering, en verdienmodellen. Dit rapport bevat de resultaten van onderdeel kennis en advies. Het beschrijft de resultaten van de behoeften van akkerbouwers en loonwerkers op het gebied van de adoptie van PL2.0.Trefwoorden: kennis en advies, PL2.0
MULTIFILE
Dit eindrapport behandelt het onderzoek van CDM@Airports, gericht op Collaborative Decision Making in de logistieke processen van luchtvrachtafhandeling op Nederlandse luchthavens. Dit project, met een looptijd van ruim twee jaar, is gestart op 8 november 2021 en geëindigd op 31 december 2023. HET PROJECT CDM@AIRPORTS OMVAT DRIE WERKPAKKETTEN: 1. Projectmanagement, dit betreft de algehele aansturing van het project incl. stuurgroep, werkgroep en stakeholdermanagement. 2. Onderzoeksactiviteiten, bestaande uit a) cross-chain-samenwerking, b) duurzaamheid en c) adoptie van digitale oplossingen voor datagedreven logistiek. 3. Management van een living lab, een ‘quadruple-helix-setting’ die fysieke en digitale leeromgevingen integreert voor onderwijs en multidisciplinair toegepast onderzoek.
MULTIFILE
Snelheid is één van de belangrijkste basisrisicofactoren in het verkeer. Hoe sneller er gereden wordt in een auto hoe groter de kans op (zware) ongevallen2 en hoe hoger de uitstoot. Veel verkeersveiligheidsbeleid spitst zich daarom toe op het voorkomen van te hoge snelheden en het voorkomen van te grote snelheidsverschillen. ISA, Intelligente Snelheid Adaptatie, is een van de technologische oplossingen die kan bijdragen aan het voorkomen van te hoge snelheden in auto’s. ISA kent vele verschijningsvormen, van informerend (via slimme technologie wordt de bestuurder geïnformeerd over de geldende maximumsnelheid) tot dwingend (de auto wordt fysiek beperkt om harder te rijden dan de maximumsnelheid). Inmiddels bestaat voldoende bewijs dat de acceptatiegraad van ISA hoog kan zijn, wanneer het systeem perfect werkt. De praktijk is echter weerbarstig, doordat systemen (soms) technisch kunnen falen of onvoldoende correcte informatie doorgeven aan de bestuurder. Dit staat de acceptatie van ISA in de weg; niet in de laatste plaats omdat onderzoek heeft aangetoond dat bestuurders hogere normen hanteren voor het accepteren van technisch falen in zelfrijdende voertuigen5. Een (rijtaakondersteunend)systeem moet ten alle tijden beter functioneren dan de mens. In ACTI-I wordt dit spanningsveld onderzocht. De vraag luidt: Welke impact heeft technisch falen op de acceptatie van ISA? Deze vraag wordt beantwoord middels 1) literatuuronderzoek naar falen en acceptatie van technologische systemen; 2) rijsimulator/deelnemersonderzoek naar de waardering voor ISA en of, en zo ja hoe, de waardering verandert al naar gelang het falen van het systeem toeneemt. We werken hiervoor samen met drie MKB’s die ISA systemen ontwikkelen en verkopen aan particulieren en de overheid. De resultaten van ACTI-I zullen worden gepubliceerd en vormen de basis voor een RAAK-MKB onderzoek naar de relatie tussen technisch falen en de bestuurdersacceptatie van ISA en andere geavanceerde rijhulpsystemen
Bedrijven, waaronder telecomproviders, vertrouwen steeds meer op complexe AI-systemen. Het gebrek aan interpreteerbaarheid dat zulke systemen vaak introduceren zorgt voor veel uitdagingen om het onderliggende besluitvormingsproces te begrijpen. Vertrouwen in AI-systemen is belangrijk omdat het bijdraagt aan acceptatie en adoptie onder gebruikers. Het vakgebied Explainable AI (XAI) speelt hierbij een cruciale rol door transparantie en uitleg aan gebruikers te bieden voor de beslissingen en werking van zulke systemen.Doel Bij AI-systemen zijn gewoonlijk verschillende stakeholders betrokken, die elk een unieke rol hebben met betrekking tot deze systemen. Als gevolg hiervan varieert de behoefte voor uitleg afhankelijk van wie het systeem gebruikt. Het primaire doel van dit onderzoek is het genereren en evalueren van op stakeholder toegesneden uitleg voor use cases in de telecomindustrie. Door best practices te identificeren, nieuwe explainability tools te ontwikkelen en deze toe te passen in verschillende use cases, is het doel om waardevolle inzichten op te doen. Resultaten Resultaten omvatten het identificeren van de huidige best practices voor het genereren van betekenisvolle uitleg en het ontwikkelen van op maat gemaakte uitleg voor belanghebbenden voor telecom use-cases. Looptijd 01 september 2023 - 30 augustus 2027 Aanpak Het onderzoek begint met een literatuurstudie, gevolgd door de identificatie van mogelijke use-cases en het in kaart brengen van de behoeften van stakeholders. Vervolgens zullen prototypes worden ontwikkeld en hun vermogen om betekenisvolle uitleg te geven, zal worden geëvalueerd.
Bedrijven, waaronder telecomproviders, vertrouwen steeds meer op complexe AI-systemen. Het gebrek aan interpreteerbaarheid dat zulke systemen vaak introduceren zorgt voor veel uitdagingen om het onderliggende besluitvormingsproces te begrijpen. Vertrouwen in AI-systemen is belangrijk omdat het bijdraagt aan acceptatie en adoptie onder gebruikers. Het vakgebied Explainable AI (XAI) speelt hierbij een cruciale rol door transparantie en uitleg aan gebruikers te bieden voor de beslissingen en werking van zulke systemen.