Viktiga mål för universiteten är att både bedöma studenternas prestationer och förbättra deras lärande. Det kan dock vara väldigt svårt att påvisa att de pedagogiska insatser som lärare använder i sin undervisning och hur studenterna presterar på examinationen faktiskt leder till någon förbättrad inlärning hos studenterna. Detta problemkomplex angrips i en nyligen publicerad studie i tidskriften Assessment & Evaluation in Higher Education.

Artikelförfattarna, en grupp lärare och forskare vid University of North Carolina at Greensboro, menar att i USA så är de publicerade exemplen på empiriska belägg för förbättrat lärande inom högre utbildning mycket sällsynta. De menar att glappet mellan hur studenterna examineras och de instruktioner och den undervisning som studenterna får på klassrumsnivå sannolikt bidrar till detta. Med de redskapen för pedagogisk självvärdering som lärare vanligtvis har till hands så är det heller inte helt lätt att faktiskt påvisa sådana orsakssamband. I den aktuella studien presenterar författarna en metod att studera hur lärare använder pedagogiska insatser (vad lärarna gör och hur de gör det) i sin undervisning. Genom att analysera detta tillsammans med examinationsresultat så kan man se vilka pedagogiska insatser som faktiskt har effekt eller inte på studenternas prestationer. Undervisningens kvalitet bedömdes genom att undersöka så kallade genomförandegradsdata (implementation fidelity data).

I grund och botten är detta en bedömning av i vilken utsträckning planerade utbildningsinsatser faktiskt genomförts och hur de genomförts. Ett viktigt verktyg är det protokoll med vilket man dokumenterar vilka specifika aktiviteter som pedagogiska åtgärder omfattar, vilka av dessa aktiviteter som faktiskt genomfördes, med vilken kvalitet de genomfördes, nivån på studenternas gensvar gentemot åtgärderna och åtgärdernas varaktighet. Detta protokoll utgör ett systematiskt sätt att dokumentera dessa aspekter av genomförandegraden på. Genomförandegradsdata kan samlas in på många olika sätt (lärarundersökningar/enkäter, formulär, standardiserade loggböcker, deltagande observation i undervisningssalen, video-/audioinspelning, etc.) men för den aktuella studien hade en grupp studenter tränats i att registrera genomförandegradsdata som en del i deras utbildning. Både professionella bedömare och lärare undersökte sedan dessa genomförandegradsdata tillsammans med data om studenternas prestation i samband med examination. Denna undersökning underlättade enligt artikelförfattarna kollegiala diskussioner om läroplaner och pedagogik, diskussioner som de menar sannolikt inte skulle uppstått om endast bedömningsdata granskats. Det gör det möjligt att koppla ihop förbättringar i studenternas lärande med specifika pedagogiska åtgärder och gör det lättare för kollegiet att fatta välgrundade beslut om ändrade utbildningsinsatser. Författarna hävdar att många universitetslärare nog skulle kunna ha nytta av att inkludera sätt för bedömning av genomförandegrad i sin pedagogiska verktygslåda. Till stöd för detta hänvisar de till att flera av de i studien deltagande lärarna noterat att användningen av protokollet tillförde struktur till deras undervisning och att den hjälpte dem att planera sina kurser med större precision.

Kommentar: Artikeln är inte helt lättgenomtränglig men jag finner den metodologi som den presenterar tilltalande. Det är befriande att se en studie som tar sig an studenternas och lärarnas prestationer på ett empiriskt sätt, när så många pedagogiska studier numera mest använder enkäter om hur studenter och lärare upplever sin situation. Deras implementering av genomförandegradsprotokollet fungerar nog i en amerikansk kontext och är kanske inte rakt av överförbar till svenska förhållanden, men den är väl värd att utforska om den kan hjälpa oss att reda ut kausalitet eller avsaknad av den samma mellan pedagogiska åtgärder och studenternas lärande och examinationsprestationer.

Text: Sven Isaksson, Institutionen för arkeologi och antikens kultur.

Studien

Kristen Smith, Sara Finney & Keston Fulcher (2019) Connecting assessment practices with curricula and pedagogy via implementation fidelity data, Assessment & Evaluation in Higher Education, 44:2, 263-282