Informatievaardigheden hebben betrekking op het oplossen van problemen of vraagstukken met behulp van informatie van het internet of uit een al of niet digitale bibliotheek. In het hoger onderwijs wordt er veel waarde aan gehecht dat studenten over deze vaardigheden beschikken. Maar hoe beoordeel je of studenten voldoende informatievaardig zijn? En wat voor soort beoordelingsinstrument is tevens geschikt om die vaardigheden te bevorderen? In dit proefschrift wordt onderzoek gerapporteerd dat aannemelijk maakt dat een scoringsrubriek de voorkeur heeft als je een instrument zoekt waarmee je informatievaardigheden zowel kunt beoordelen als stimuleren. Op basis van literatuurstudie en de uitkomsten van onderzoek onder studenten en docenten is een scoringsrubriek ontwikkeld. Vervolgens is het beoordelingsinstrument door middel van empirische studies getest en geëvalueerd.
DOCUMENT
Op 15 september verdedigde Jos van Helvoort, docent aan De Haagse Hogeschool, in de Amsterdamse Agnietenkapel zijn proefschrift over het beoordelen van informatievaardigheden in het hoger onderwijs. In het boek staat een door hem ontwikkelde ‘Scoringsrubriek voor Informatievaardigheden’ centraal. Met dit instrument kan de informatievaardigheid van studenten worden beoordeeld en kan feedback worden gegeven. Op verzoek van IP reflecteert Van Helvoort nader op de uitkomsten van het onderzoek en gaat hij in op de vraag hoe de scoringsrubriek in de toekomst toegepast kan worden in het onderwijs aan universiteiten en hogescholen.
DOCUMENT
De scoringsrubriek is een checklist met aandachtspunten voor het beoordelen van informatievaardigheden van studenten. Behalve de beoordelingscriteria wordt ook het typerende studentengedrag op twee niveaus geoperationaliseerd. De scoringsrubriek is te gebruiken in het kader van de beoordeling van diverse studentenproducten zoals onderzoeksverslagen, eindscripties en essays. Toegevoegd is een korte toelichting op het gebruik van de scoringsrubriek en een verslag van ervaringen ermee bij Saxion en de Nederlandse Defensie Academie.
DOCUMENT
Hoe gaan onze studenten in het kader van hun studie om met informatie? Waar halen ze informatie vandaan en in welke mate maken ze daarbij bewuste keuzes?
DOCUMENT
De scoringsrubriek is een checklist met aandachtspunten voor het beoordelen van informatievaardigheden van studenten. Behalve de beoordelingscriteria wordt ook het typerende studentengedrag op twee niveaus geoperationaliseerd. De scoringsrubriek is te gebruiken in het kader van de beoordeling van diverse studentenproducten zoals onderzoeksverslagen, eindscripties en essays. Toegevoegd is een korte toelichting op het gebruik van de scoringsrubriek.
MULTIFILE
The aim of this research was to gain evidence based arguments for the use of the scoring rubric for performance assessment of information literacy [1] in Dutch Universities of Applied Sciences. Faculty members from four different departments of The Hague University were interviewed on the ways in which they use the scoring rubric and their arguments for it. A fifth lecturer answered the main question by email. The topic list, which has been used as a guide for the interviews, was based on subject analysis of scholar literature on rubric use. Four of the five respondents used (parts of) the rubric for the measurement of students’ performances in information use but none of them used the rubric as it is. What the faculty staff told the researcher is that the rubric helped them to improve the grading criteria for existing assignments. Only one respondent used the rubric itself, but this lecturer extended it with some new criteria on writing skills. It was also discovered that the rubric is not only used for grading but also for the development of new learning content on research skills. [De hier gepubliceerde versie is het 'accepted paper' van het origineel dat is gepubliceerd op www.springerlink.com . De officiële publicatie kan worden gedownload op http://link.springer.com/chapter/10.1007/978-3-319-03919-0_58]
DOCUMENT
The main purpose of the research was the development and testing of an assessment tool for the grading of Dutch students' performance in information problem solving during their study tasks. Scholarly literature suggests that an analytical scoring rubric would be a good tool for this.Described in this article are the construction process of such a scoring rubric and the evaluation of the prototype based on the assessment of its usefulness in educational practice, the efficiency in use and the reliability of the rubric. To test this last point, the rubric was used by two professors when they graded the same set of student products. 'Interrater reliability' for the professors' gradings was estimated by calculating absolute agreement of the scores, adjacent agreement and decision consistency. An English version of the scoring rubric has been added to this journal article as an appendix. This rubric can be used in various discipline-based courses in Higher Education in which information problem solving is one of the learning activities. After evaluating the prototype it was concluded that the rubric is particularly useful to graders as it keeps them focussed on relevant aspects during the grading process. If the rubric is used for summative evaluation of credit bearing student work, it is strongly recommended to use the scoring scheme as a whole and to let the grading work be done by at least two different markers. [Jos van Helvoort & the Chartered Institute of Library and Information Professionals-Information Literacy Group]
DOCUMENT
URL-conference: http://ecil2017.ilconf.org/
DOCUMENT
Purpose: The main purpose of the research was to measure reliability and validity of the Scoring Rubric for Information Literacy (Van Helvoort, 2010). Design/methodology/approach: Percentages of agreement and Intraclass Correlation were used to describe interrater reliability. For the determination of construct validity, factor analysis and reliability analysis were used. Criterion validity was calculated with Pearson correlations. Findings: In the described case, the Scoring Rubric for Information Literacy appears to be a reliable and valid instrument for the assessment of information literate performance. Originality/value: Reliability and validity are prerequisites to recommend a rubric for application. The results confirm that this Scoring Rubric for Information Literacy can be used in courses in higher education, not only for assessment purposes but also to foster learning. Oorspronkelijke artikel bij Emerald te vinden bij http://dx.doi.org/10.1108/JD-05-2016-0066
MULTIFILE
This chapter describes the use of a scoring rubric to encourage students to improve their information literacy skills. It will explain how the students apply the rubric to supply feedback on their peers’ performance in information problem solving (IPS) tasks. Supplying feedback appears to be a promising learning approach in acquiring knowledge about information literacy, not only for the assessed but also for the assessor. The peer assessment approach helps the feedback supplier to construct actively sustainable knowledge about the IPS process. This knowledge surpasses the construction of basic factual knowledge – level 1 of the ‘Revised taxonomy of learning objectives’ (Krathwohl, 2002) – and stimulates the understanding and application of the learning content as well as the more complex cognitive processes of analysis, evaluation and creation. This is the author version of a book published by Elsevier. Dit is de auteursversie van een hoofdstuk dat is gepubliceerd bij Elsevier.
DOCUMENT