Learning Analytics en bias – Learning analytics richt zich op het meten en analyseren van studentgegevens om onderwijs te verbeteren. Bakker onderscheidt hierin verschillende niveaus, zoals student analytics en institutional analytics, en focust op inclusion analytics, waarin gekeken wordt naar kansengelijkheid. Bias – systematische vooroordelen in data – kan vooroordelen in algoritmen versterken en zo kansenongelijkheid veroorzaken. De onderzoeksmethode maakt gebruik van het 4/5-criterium, waarbij fairness in uitkomsten gemeten wordt door te kijken of de kansen voor de beschermde groep minstens 80% zijn van die van de bevoorrechte groep.Onderzoeksaanpak – Bakker gebruikt machine learning om retentie na het eerste studiejaar te voorspellen en onderzoekt vervolgens verschillen tussen groepen studenten, zoals mbo-en vwo-studenten. Hij volgt drie stappen: (1) Data voorbereiden en modellen bouwen: Data worden opgesplitst en opgeschoond om accurate voorspelmodellen te maken. (2) Variabelen analyseren: Invloed van kenmerken op uitkomsten wordt beoordeeld voor verschillende groepen. (3) Fairness berekenen: Het 4/5-criterium wordt toegepast op metrics zoals accuraatheid en statistische gelijkheid om bias en ongelijkheden te identificeren. Resultaten, aanbevelingen en vervolgonderzoek – Uit het onderzoek blijkt dat kansengelijkheid bij veel opleidingen ontbreekt, met name voor mannen en mbo-studenten, die een hogere kans op uitval hebben. Bakker adviseert sensitieve kenmerken zoals migratieachtergrond mee te nemen in analyses op basis van informed consent. Daarnaast pleit hij voor meer flexibiliteit in het beleid, geïnspireerd door maatregelen tijdens de coronacrisis, die een positief effect hadden op studiesucces.Toekomstvisie – Bakker benadrukt dat niet elke ongelijkheid het gevolg is van discriminatie en roept op tot data-informed interventies om sociale rechtvaardigheid in het onderwijs te bevorderen. Zijn methode wordt open access beschikbaar gesteld, zodat ook andere instellingen deze kunnen toepassen en kansengelijkheid systematisch en bewust kunnen onderzoeken.
Objective:Acknowledging study limitations in a scientific publication is a crucial element in scientific transparency and progress. However, limitation reporting is often inadequate. Natural language processing (NLP) methods could support automated reporting checks, improving research transparency. In this study, our objective was to develop a dataset and NLP methods to detect and categorize self-acknowledged limitations (e.g., sample size, blinding) reported in randomized controlled trial (RCT) publications.Methods:We created a data model of limitation types in RCT studies and annotated a corpus of 200 full-text RCT publications using this data model. We fine-tuned BERT-based sentence classification models to recognize the limitation sentences and their types. To address the small size of the annotated corpus, we experimented with data augmentation approaches, including Easy Data Augmentation (EDA) and Prompt-Based Data Augmentation (PromDA). We applied the best-performing model to a set of about 12K RCT publications to characterize self-acknowledged limitations at larger scale.Results:Our data model consists of 15 categories and 24 sub-categories (e.g., Population and its sub-category DiagnosticCriteria). We annotated 1090 instances of limitation types in 952 sentences (4.8 limitation sentences and 5.5 limitation types per article). A fine-tuned PubMedBERT model for limitation sentence classification improved upon our earlier model by about 1.5 absolute percentage points in F1 score (0.821 vs. 0.8) with statistical significance (). Our best-performing limitation type classification model, PubMedBERT fine-tuning with PromDA (Output View), achieved an F1 score of 0.7, improving upon the vanilla PubMedBERT model by 2.7 percentage points, with statistical significance ().Conclusion:The model could support automated screening tools which can be used by journals to draw the authors’ attention to reporting issues. Automatic extraction of limitations from RCT publications could benefit peer review and evidence synthesis, and support advanced methods to search and aggregate the evidence from the clinical trial literature.
MULTIFILE
In cross-cultural communication and adjunct disciplines such as cross-cultural management and international business, there is a negativity bias of seeing cultural differences as a source of potential issues. The emergence of Positive Organizational Scholarship (POS) questions this problem-focused approach. This paper contributes to the ongoing discussion from neuroscience’s perspectives in several ways. Firstly, it provides a neurological look at this bias. Secondly, it proposes that the problem-focused approach may (1) give us a biased outlook of cross-cultural encounters rather than a reality, (2) hinder creativity, (3) lead to the rebound effect, and (4) turn belief into reality. Finally, based on insight from neuroscience and adopting the POS lens with the connection between POS and creativity, it’s recommended that future research takes three directions: (1) Using similarity as the starting point; (2) strategize body language, context and theories; and (3) develop a multicultural mind. In essence, the paper contributes to existing knowledge of the field by employing an interdisciplinary approach, aiming to gain a more holistic view, provoke thoughts, and trigger future empirical studies.