Vor nun fast schon zwei Wochen fand in Hamburg das Forschungskolloquium zum Thema Evaluation forschenden Lernens statt. Unter dem Dach von FideS-Transfer wurden dabei vorhandene Evaluationsansätze mit beteiligten Kolleginnen und Kollegen exemplarisch vorgestellt und Erfahrungen diskutiert. Besonders freuten wir uns, dass Peter Tremp im Rahmen seines Aufenthaltes als Gastwissenschaftler am HUL sowie Jan Hense von der DeGeval anwesend waren.

Den Auftakt machte Eileen Lübcke, die das Zielsystem forschenden Lernens vorstellte. Unter der Perspektive, Wirkannahmen in den Blick zu nehmen, haben wir die Projekte unseres Samples dahingehend untersucht, welche Ziele eigentlich mit forschendem Lernen erreicht werden sollen. Aus den Interviewdaten ließen sich vier Zielsysteme identifizieren: Studienabschluss, wissenschaftliche (Aus-)Bildung, Kohärenz und Selektion. Zum Tragen kommen hier auch individuelle Überzeugungen und Annahmen über die (hochschuldidaktische) Wirklichkeit, die dann als Basis genommen werden können, um eine Programmtheorie aufzustellen und implizite Annahmen sichtbar zu machen. Dabei ist anzumerken, dass nach der Programmtheorie nicht Wirkungen an sich evaluiert wurden, sondern Wirkannahmen aufgestellt werden. Des Weiteren wurde diskutiert ob unterschiedliche Ziele in diesem Zusammenhang eventuell auch unterschiedliche Evaluationsinstrumente brauchen. An dieser Stelle zeigte sich bereits, dass der üblich Fragebogen für Veranstaltungen forschenden Lernens nicht immer passend scheint.

Peter Tremp von der PH Zürich hat im Anschluss einen Impuls zu seinen Erfahrungen aus der eigenen Erarbeitung eines Evaluationsinstruments für das forschungsorientierte Studium im Rahmen des „Züricher Framework“ gegeben und dabei auch auf Hürden und Hindernisse hingewiesen. Der Beitrag explizierte nach einem historischen Lehrstück über Fröbel und das Spiel das Zürcher Framework. Im Rekurs zu Fröbels Kindergartenpädagogik machte Peter deutlich, dass dort auch sofort begonnen wird, in diesem Fall mit Spielen und der Kindergarten somit strukturierter Raum ist. Hier können sich Vergleichsmöglichkeiten zur Hochschule aufspannen, in der dann auch gelten müsse, direkt mit Forschung zu beginnen, möchte man die strukturierte Grundidee des Lernens an der Hochschule ernst nehmen.  Im Zürcher Framework wird in Folge dieser Idee systematisch überlegt, wie Forschungsorientierung in der Gesamtgestaltung des Studiums integriert werden kann und welche Implikationen dies für Leistungsnachweise nach sich zieht. Sein Vortrag endete mit der Idee, statt klassischer Lehrveranstaltungsevaluationen, die wenig spezifisch auf Forschungsorientierung eingehen und meist nur die 90 Minuten Seminar- oder Vorlesungszeit beurteilen, Lehrreflexionen in Form von Seminar-Rezensionen oder Seminar-Reviews anzufertigen – quasi auch als Tun im Modus der Forschung, denn dort gehören ja auch Reviews und Rezensionen zum Handwerk.

Die Diskussion im Nachgang drehte sich dann vor allem um die Frage, wie ein solches Review aussehen könnte oder wie sich darin Absolventen von Dozierenden unterscheiden.  Aber auch die Nutzung von Artefakten wie studentische Arbeiten standen zur Diskussion mit der Frage, ob man diese nicht auch zur Evaluation der eigenen Lehre nutzen können, kommt darin doch die Performanz der Studierenden zum Ausdruck. Ausgehend davon, dass der Slogan „One fits for all“ zwar in Evaluationsfragen usus ist, dem Ziel von Evaluation aber wenig hilfreich ist. So könnten auch Fokusgruppen mit Studierenden genutzt werden, um darin auch Rahmenbedingungen, Tätigkeiten und Nutzen der Lehrveranstaltung oder des Konzepts Forschenden Lernens zu diskutieren.

Aus den Projekten zu forschendem Lernen stellen Sylvia Lepp und Johannes Polzin von der HfWU ihre Bedarfe zur Evaluation vor. In einem sehr partizipativen Vorgehen haben sie einen Fragenkatalog entworfen, der nun in einen Evaluationsbogen einfliessen soll. Das Plenum gab insbesondere Rückmeldung zu Umfang und Perspektive des Bogens. Anschließend können alle Gäste eigene Erfahrungen, ‚current practices‘ und Ideen zum Thema Evaluation forschenden Lernens beitragen.

Herr Hense schloss den Workshop mit einer Zusammenfassung ab, die sowohl von seiner Forschungstätigkeit im Bereich Evaluation und seinen Erfahrungen in der DeGEval inspiriert waren. Er wies nochmals darauf hin, dass analytisch zwischen Standards, Zwecken, Gegenstand und theoriebasierter Evaluation unterschieden werden sollte. Dabei sollte eine Evaluation – auch die forschenden Lernens – sowohl nützlich und durchführbar, wie auch genau und fair sein, denn Evaluation ist immer eine Intervention. Unklar sei aber insbesondere bei der Evaluation forschenden Lernens, an wen sich die Evaluation eigentlich richtet. Es ist an dieser Stelle darauf zu achten, dass Evaluation sich von Forschung unterscheide. Herr Hense machte sich dann für eine theoriebasierte Herangehensweise stark, die in die Black-Box zwischen Maßnahme und Wirkung schauen möchte. Theoriebasierte Reflexion macht die Wirkpfade und -annahmen sichtbar mit der Frage danach, was genau die Effekte, die „secret sauce“ forschenden Lernen eigentlich sind. Was macht es wirksam? Das wären die Fragen, die für die Evaluation forschenden Lernens im Fokus stünden. Darüber hinaus geht es darum, auch die Bedingungen im Prozess stärker mit in die Evaluation einzubeziehen. Schnell wurden Parallelen auch zu Annahmen aus dem DBR Ansatz diskutiert.

Was bleibt zusammenfassend von dem Workshop? Aus unserer Perspektive war es fruchtbar, mit allen verschiedenen Akteurinnen und Akteuren ins Gespräch zu kommen. Oft waren wir in der Diskussion jedoch bei Fragen der allgemeinen (Lehrveranstaltungs-)Evaluation; was das spezifische an der Evaluation forschungsorientierter Lehre war, wurde erst in Ansätzen deutlich. Insbesondere die Herausforderung, Normativität und Objektivität auseinander zu halten, bestimmt daher die Evaluation. Uns zeigte es, dass das Thema durchaus noch Potenzial hat. So freuen wir uns, im Rahmen der nächsten dghd Tagung in Leipzig das Thema weiter voranzutreiben.

Allen Gästen danken wir für Ihren Input und Ihr Engagement!