BACKGROUND & AIMS: Diagnosed prevalence of malnutrition and dietary intake are currently unknown in patients with severe aortic stenosis planned to undergo Transcatheter Aortic Valve Implantation (TAVI). This study describes the preprocedural nutritional status, protein intake and diet quality.METHODS: Consecutive preprocedural TAVI patients were asked to participate in this explorative study. Nutritional status was diagnosed with the global leadership initiative on malnutrition (GLIM) criteria. Preprocedural protein intake and diet quality were assessed with a three-day dietary record. To increase the record's validity, a researcher visited the participants at their homes to confirm the record. Protein intake was reported as an average intake of three days and diet quality was assessed using the Dutch dietary guidelines (score range 0-14, 1 point for adherence to each guideline).RESULTS: Of the included patients (n = 50, median age 80 ± 5, 56% male) 32% (n = 16) were diagnosed with malnutrition. Patients diagnosed with malnutrition had a lower protein intake (1.02 ± 0.28 g/kg/day vs 0.87 ± 0.21 g/kg/day, p = 0.04). The difference in protein intake mainly took place during lunch (20 ± 13 g/kg vs 13 ± 7 g/kg, p = 0.03). Patients adhered to 6.4 ± 2.2 out of 14 dietary guidelines. Adherence to the guideline of whole grains and ratio of whole grains was lower in the group of patients with malnutrition than in patients with normal nutritional status (both 62% vs 19%, p = 0.01). In a multivariate analysis diabetes mellitus was found as an independent predictor of malnutrition.CONCLUSION: Prevalence of malnutrition among TAVI patients is very high up to 32%. Patients with malnutrition had lower protein and whole grain intake than patients with normal nutritional status. Furthermore, we found diabetes mellitus as independent predictor of malnutrition. Nutrition interventions in this older patient group are highly warranted.
DOCUMENT
Background & aims: Accurate diagnosis of sarcopenia requires evaluation of muscle quality, which refers to the amount of fat infiltration in muscle tissue. In this study, we aim to investigate whether we can independently predict mortality risk in transcatheter aortic valve implantation (TAVI) patients, using automatic deep learning algorithms to assess muscle quality on procedural computed tomography (CT) scans. Methods: This study included 1199 patients with severe aortic stenosis who underwent transcatheter aortic valve implantation (TAVI) between January 2010 and January 2020. A procedural CT scan was performed as part of the preprocedural-TAVI evaluation, and the scans were analyzed using deep-learning-based software to automatically determine skeletal muscle density (SMD) and intermuscular adipose tissue (IMAT). The association of SMD and IMAT with all-cause mortality was analyzed using a Cox regression model, adjusted for other known mortality predictors, including muscle mass. Results: The mean age of the participants was 80 ± 7 years, 53% were female. The median observation time was 1084 days, and the overall mortality rate was 39%. We found that the lowest tertile of muscle quality, as determined by SMD, was associated with an increased risk of mortality (HR 1.40 [95%CI: 1.15–1.70], p < 0.01). Similarly, low muscle quality as defined by high IMAT in the lowest tertile was also associated with increased mortality risk (HR 1.24 [95%CI: 1.01–1.52], p = 0.04). Conclusions: Our findings suggest that deep learning-assessed low muscle quality, as indicated by fat infiltration in muscle tissue, is a practical, useful and independent predictor of mortality after TAVI.
DOCUMENT
Objectives: The aim of this study was to assess the predictive value of PMA measurement for mortality. Background: Current surgical risk stratification have limited predictive value in the transcatheter aortic valve implantation (TAVI) population. In TAVI workup, a CT scan is routinely performed but body composition is not analyzed. Psoas muscle area (PMA) reflects a patient's global muscle mass and accordingly PMA might serve as a quantifiable frailty measure. Methods: Multi-slice computed tomography scans (between 2010 and 2016) of 583 consecutive TAVI patients were reviewed. Patients were divided into equal sex-specific tertiles (low, mid, and high) according to an indexed PMA. Hazard ratios (HR) and their confidence intervals (CI) were determined for cardiac and all-cause mortality after TAVI. Results: Low iPMA was associated with cardiac and all-cause mortality in females. One-year adjusted cardiac mortality HR in females for mid-iPMA and high-iPMA were 0.14 [95%CI, 0.05–0.45] and 0.40 [95%CI, 0.15–0.97], respectively. Similar effects were observed for 30-day and 2-years cardiac and all-cause mortality. In females, adding iPMA to surgical risk scores improved the predictive value for 1-year mortality. C-statistics changed from 0.63 [CI = 0.54–0.73] to 0.67 [CI: 0.58–0.75] for EuroSCORE II and from 0.67 [CI: 0.59–0.77] to 0.72 [CI: 0.63–0.80] for STS-PROM. Conclusions: Particularly in females, low iPMA is independently associated with an higher all-cause and cardiac mortality. Prospective studies should confirm whether PMA or other body composition parameters should be extracted automatically from CT-scans to include in clinical decision making and outcome prediction for TAVI.
DOCUMENT
Patiëntdata uit vragenlijsten, fysieke testen en ‘wearables’ hebben veel potentie om fysiotherapie-behandelingen te personaliseren (zogeheten ‘datagedragen’ zorg) en gedeelde besluitvorming tussen fysiotherapeut en patiënt te faciliteren. Hiermee kan fysiotherapie mogelijk doelmatiger en effectiever worden. Veel fysiotherapeuten en hun patiënten zien echter nauwelijks meerwaarde in het verzamelen van patiëntdata, maar vooral toegenomen administratieve last. In de bestaande landelijke databases krijgen fysiotherapeuten en hun patiënten de door hen zelf verzamelde patiëntdata via een online dashboard weliswaar teruggekoppeld, maar op een weinig betekenisvolle manier doordat het dashboard primair gericht is op wensen van externe partijen (zoals zorgverzekeraars). Door gebruik te maken van technologische innovaties zoals gepersonaliseerde datavisualisaties op basis van geavanceerde data science analyses kunnen patiëntdata betekenisvoller teruggekoppeld en ingezet worden. Wij zetten technologie dus in om ‘datagedragen’, gepersonaliseerde zorg, in dit geval binnen de fysiotherapie, een stap dichterbij te brengen. De kennis opgedaan in de project is tevens relevant voor andere zorgberoepen. In dit KIEM-project worden eerst wensen van eindgebruikers, bestaande succesvolle datavisualisaties en de hiervoor vereiste data science analyses geïnventariseerd (werkpakket 1: inventarisatie). Op basis hiervan worden meerdere prototypes van inzichtelijke datavisualisaties ontwikkeld (bijvoorbeeld visualisatie van patiëntscores in vergelijking met (beoogde) normscores, of van voorspelling van verwacht herstel op basis van data van vergelijkbare eerdere patiënten). Middels focusgroepinterviews met fysiotherapeuten en patiënten worden hieruit de meest kansrijke (maximaal 5) prototypes geselecteerd. Voor deze geselecteerde prototypes worden vervolgens de vereiste data-analyses ontwikkeld die de datavisualisaties op de dashboards van de landelijke databases mogelijk maken (werkpakket 2: prototypes en data-analyses). In kleine pilots worden deze datavisualisaties door eindgebruikers toegepast in de praktijk om te bepalen of ze daadwerkelijk aan hun wensen voldoen (werkpakket 3: pilots). Uit dit 1-jarige project kan een groot vervolgonderzoek ‘ontkiemen’ naar het effect van betekenisvolle datavisualisaties op de uitkomsten van zorg.
Communicatieprofessionals geven aan dat organisaties geconfronteerd worden met een almaar complexere samenleving en daarmee het overzicht verloren hebben. Zo’n overzicht, een ‘360 graden blik’, is echter onontbeerlijk. Dit vooral, aldus diezelfde communicatieprofessionals, omdat dan eerder kan worden opgemerkt wanneer de legitimiteit van een organisatie ter discussie staat en zowel tijdiger als adequater gereageerd kan worden. Op dit moment is het echter nog zo dat een reactie pas op gang komt als zaken reeds in een gevorderd stadium verkeren. Onderstromen blijven onderbelicht, als ze niet al geheel onzichtbaar zijn. Een van de verklaringen hiervoor is de grote rol van sociale media in de publieke communicatie van dit moment. Die media produceren echter zoveel data dat communicatieprofessionals daartegenover machteloos staan. De enige oplossing is automatisering van de selectie en analyse van die data. Helaas is men er tot op heden nog niet in geslaagd een brug te slaan tussen het handwerk van de communicatieprofessional en de vele mogelijkheden van een datagedreven aanpak. Deze brug dan wel de vertaling van de huidige praktijk naar een hogere technisch niveau staat centraal in dit onderzoeksproject. Daarbij gaat het in het bijzonder om een vroegtijdige herkenning van potentiële issues, in het bijzonder met betrekking tot geruchtvorming en oproepen tot mobilisatie. Met discoursanalyse, AI en UX Design willen we interfaces ontwikkelen die zicht geven op die onderstromen. Daarbij worden transcripten van handmatig gecodeerde discoursanalytische datasets ingezet voor AI, in het bijzonder voor de clustering en classificatie van nieuwe data. Interactieve datavisualisaties maken die datasets vervolgens beter doorzoekbaar terwijl geautomatiseerde patroon-classificaties de communicatieprofessional in staat stellen sociale uitingen beter in te schatten. Aldus wordt richting gegeven aan handelingsperspectieven. Het onderzoek voorziet in de oplevering van een high fidelity ontwerp en een handleiding plus training waarmee analisten van newsrooms en communicatieprofessionals daadwerkelijk aan de slag kunnen gaan.
Journalisten die veel interactie met hun publiek hebben (zoals consumentenprogramma’s) ontvangen via diverse, vaak besloten, kanalen (Facebook Messenger, WhatsApp, e-mail, fora) een grote stroom tips en/of berichten. Radio Dabanga, bijvoorbeeld, een op Soedan gericht radiostation in Amsterdam en ook een redactie met veel publieksinteractie, krijgt alleen al via WhatsApp 500-3000 berichten per dag. Met een redactie van twee mensen kan niet alles gelezen worden. Maar zelfs als dat kon, dan kan nog niet alles geverifieerd. Het gevolg is dat berichten gemist worden, dat Dabanga-journalisten vooral zoeken naar hun al bekende afzenders, en dat zij permanent het gevoel hebben belangrijke informatie te missen, waardoor zij hun contacten tekort te doen. Dit consortium onderzoekt of data science technieken hierbij kunnen helpen. Natural language processing technieken kunnen helpen de berichtenstroom beter te structureren waardoor tips over laag-frequente onderwerpen niet over het hoofd gezien worden. Recommender systemen kunnen ingezet worden om een betrouwbaarheidsindex te ontwerpen voor tot nog toe onbekende afzenders. Het resultaat is dan minder ondergesneeuwde tips en minder ondergesneeuwde afzenders. De uitkomsten worden getest met journalistenpanels. Bij goede resultaten uit bovenstaande onderzoeken, bouwt het consortium een prototype van de Berichtentemmer: een tool die helpt berichten uit diverse kanalen per onderwerp te structureren. Daardoor kunnen journalisten hun netwerken beter en efficiënter benutten. Bij het bouwen van deze tool hoort ook dat de gebruikte algoritmen transparant moeten zijn voor de journalist en de presentatie van de resultaten niet sturend mag zijn. Het consortium bestaat daarom uit een ‘Data science’-projectgroep voor het ontwerpen en testen van de algoritmen, en uit een ‘Ethiek & design’-projectgroep voor het ontwerpen van richtlijnen over transparantie van de algoritmen en de datavisualisatie. Tenslotte is er een ontwikkelgroep bestaande uit een combinatie van studenten en professional developers. Zij bouwen het prototype.