Statt ›innovative‹ Lehr-Lernformen

Plädoyer für eine Neuerfindung von Studium und Lehre in Zeiten der Digitalisierung

Bewertungen der Digitalisierung sind nicht einheitlich, sondern vom jeweiligen Standpunkt abhängig. Dies gilt auch für die Frage, wie sie Wissenschaft und Forschung, Studium und Lehre beeinflusst. Sie bietet Möglichkeiten zur Erfassung, Speicherung und Verarbeitung gigantischer Datenmengen - fordert aber zugleich Kriterien der Einordnung und Strukturierung. Daraus ergeben sich große Herausforderungen an Studium und Lehre, meint Ines Langemeyer und plädiert für eine Neuerfindung derselben.

Die Digitalisierung erscheint zunächst als etwas Einfaches: Sie fängt mit Null an und hört mit Eins auf. Zumindest was den Code betrifft. Als ein gesellschaftliches Phänomen betrachtet verliert man jedoch schnell den Überblick, was zur Digitalisierung gehört: Soll man beispielsweise nur an Bestellvorgänge in Online-Shops denken oder auch an die durch sie ausgelösten Warenlieferungen und das Lohn-Dumping bei Zustellern? Zu Studium und Lehre gibt es ähnliche Fragen. Dabei gerät das Grundlegende nicht so schnell in den Blick, wenn man nur Laptops, Tablets oder sogenannte Smartphones eingesetzt als Lehrmittel sieht. Als multifunktionale Medien wird ihnen häufig zugeschrieben, das Lehr-Lerngeschehen ›innovativ‹ zu machen. Doch was zu lernen und wie zu lehren sinnvoll ist, ist mit Blick auf die Reichweite der Digitalisierung zu überdenken. Denn längst ist die sogenannte Künstliche Intelligenz und die automatisierte Datenverarbeitung ein treibendes Moment in allen Wirtschaftsbereichen geworden. Die Stellung menschlicher Arbeit im technologischen Gesamtzusammenhang verändert sich maßgeblich. Zu klären ist, welche Rolle zukünftig wissenschaftliche Qualifikationen im Beruf spielen werden 1 und wie Studieninhalte und Lehrformen vor diesem Hintergrund neu zu bewerten sind. Neben diesen Fragen haben auch die eher unbeabsichtigten Nebenfolgen der Digitalisierung eine Relevanz: der bedrohte Schutz der Privatsphäre, die stärker gewordene Desinformation in und durch ›soziale Medien‹ oder die ›digitale Demenz‹, d.h. der Verlust an Wissen, Merk- und Denkfähigkeit.2

Je nachdem, wie wir das Thema eingrenzen, ergibt sich ein anderer Standpunkt und eine andere Bewertung der Digitalisierung. Im Folgenden wird zumindest die Position verlassen, weitgehend medienaffin nach Nutzungsmöglichkeiten Ausschau zu halten und ›innovationszugewandt‹ zu denken. Meines Erachtens ist eine solche Eingrenzung des Themas angesichts weitreichender sozio-technischer Entwicklungen und gesellschaftlicher ›Nebenfolgen‹ nicht mehr angebracht. Mit dem Schlagwort "Digitalisierung" meint man zwar das Ganze zu sehen. Dem ist aber nicht so.

Ich werde deshalb zunächst erläutern, warum Verwissenschaftlichungsprozesse genauer zu betrachten sind. Anschließend werde ich Unschärfen benennen, die z.B. bei der Diskussion um ›Wissensarbeit‹ noch immer bestehen, und zeigen, wie sie mit ideologischen Vorstellungen über akademische Bildung zusammenhängen. Schließlich begründe ich, warum eine Neuerfindung von Studium und Lehre notwendig wäre.

Verwissenschaftlichung

Keine Null und keine Eins stellen für sich genommen eine bedeutende Größe dar. Wie bei der Spaltung von Atomkernen zwecks Energiegewinnung geht es auch bei der Digitalisierung nicht bloß um eine daliegende materielle, sondern vielmehr um eine funktionell nutzbare kleinste Einheit. Gerade die Kraft des Digitalen lässt sich nicht rein an Stofflichem festmachen. Die digitalen Einsen sind nichts anderes als elektrische Stromladungen, die Nullen ihre Entladung. Worauf es ankommt, sind die Beziehungen, die mittels Hard- und Software zwischen digitalen Informationsgütern und den Bereichen des gesellschaftlichen Lebens hergestellt werden können. Damit die Erzeugung und Verarbeitung digitaler Daten nicht nur banaler Strom ist, geht es um die breite Anwendung von Wissenschaft. Je nach gesellschaftlichem Bereich treten andere Bezugsdisziplinen in den Vordergrund.

Die Informatik wendet Mathematik an, um Programmiersprachen und Software-Architekturen zu entwickeln. Auf dieser Grundlage brauchen wiederum die Technologien der Automation, der Robotik und der Künstlichen Intelligenz wissenschaftlich exakte Daten über reale Prozesse und Gegenstände. In der Medizin können das Patientendaten, Röntgen- und Ultraschallbilder sowie Grenzwerte bis hin zu Modellierungen ganzer Operationsmethoden sein. Damit die digitalisierten Daten und Verfahren auf sinnvolle Weise zueinanderfinden, wird ihre Verknüpfung über eine wissenschaftliche Logik relevant. Die Mathematik ist dabei die Leitwissenschaft. Würden digitale Daten Informationen über den Zustand von Patienten oder (in der Logistik) über die Lage von Gegenständen im Raum, über deren materielle Beschaffenheit oder über die Rahmenbedingungen (Temperatur, Luftfeuchtigkeit usw.) ohne diese wissenschaftliche Logik speichern (was technisch durchaus möglich ist und bei den ›selbstlernenden‹ Algorithmen ein Problem bleibt), wären sie schlichtweg nutzlos. Würde man etwa beim GPS-System die Relativitätstheorie Einsteins ignorieren, könnten Navigationsgeräte nur ungefähr in einem Radius von etwa 14km ein geographisches Ziel verorten.

Was im jeweiligen Anwendungsbereich geeignete Mess-, Modellierungs-, Verrechnungs- oder Regulationsverfahren sind, lässt sich nicht ohne Bezug auf wissenschaftliche Forschung erkennen. Die übliche Rede von der ›Wissensgesellschaft‹ verdeckt allzu leicht, dass es Egalität unter den Wissensbeständen und -arten nicht gibt. Einerseits spielt Insiderwissen eine Rolle, andererseits ist wissenschaftlich erzeugtes Wissen entscheidend.

Was folgt nun daraus? Eine vorschnelle Antwort lautet: Wissenschaftliches Wissen wäre der neue Rohstoff der Ökonomie. Um die Kurzschlüssigkeit dieses Gedankens aufzuzeigen, muss man auf seine Unschärfe eingehen. Sie betrifft vor allem die Beurteilung menschlicher Fähigkeiten im Verhältnis zum wissenschaftlich-technologisierbaren Wissen. Denn das eine existiert nicht ohne das andere. Die Analogie zum Rohstoff hinkt. Auch die Technologisierung kann nicht verhindern, dass neue Unfähigkeiten entstehen - oder andersherum: dass neue Fähigkeiten im Umgang mit digitalen Infrastrukturen in allen gesellschaftlichen Bereichen benötigt werden. Der Versuch, die fehleranfällige menschliche Arbeit weitgehend durch angeblich intelligente und fehlerfreiere Maschinen zu ersetzen, wird am Ende nicht aufgehen. Eine Verwissenschaftlichung der im Arbeitsprozess eingebundenen Denk- und Handlungsfähigkeit von Menschen ist notwendig, weil sich die situiert aufkommenden Fragen der Gesellschaft - allen voran dieser, wie ein vernünftiges Zusammenleben aussehen kann und soll - nicht an maschinelles Denken delegieren lassen. Urteilsfähigkeit gegenüber diesen Fragen lässt sich nur vom menschlichen Standpunkt aus entwickeln. Deshalb gibt es eine wichtige Interdependenz zwischen akademischer Bildung und technischer Weiterentwicklungen durch die Digitalisierung.

Wissenschaftsförmige Praxis und Pseudowissenschaft

Bei der Schlussfolgerung, dass Wissenschaft für die digital geschaffenen Funktionalitäten unabdingbar geworden ist, darf man nicht übersehen, dass bestimmte Teile in der Praxis allerdings nur so aussehen, als wären sie wissenschaftlich. Die Gründe dafür sind unterschiedlich. Um ein Schlaglicht auf die Phänomene zu werfen: Menschen, die mit diversen (Mess-)Daten über ihre Ernährung, ihrem Fitnessverhalten etc. ›Lifelogging‹ betreiben, kennen nicht unbedingt eher die Wahrheit über ihre Gesundheit als andere, die lediglich zum Arzt gehen. Zukunftsprognosen werden nicht grundsätzlich auf der Basis von wissenschaftlich belastbaren Daten erstellt, weil mitunter nicht einmal klar ist, was eine angemessene bzw. hinreichende Datenlage für eine zukünftige Situation oder Problemstellung wäre.

Mir geht es also nicht um eine reißerische Diskreditierung von Forschung und Wissenschaft, um sie pauschal auf die Stufe von ›Fake News‹ zu setzen, sondern um die realen Bedingungen aller vorwissenschaftlicher Praxis, die auch für die ernsthafte Entwicklung von Forschung und Erkenntnis wichtig ist. Es geht um die Weiterentwicklung von Forschungsgebieten, wo immer wieder Fehler bei der Datenerhebung passieren können und das verwendete Datenmaterial zu lückenhaft ist, um daraus adäquate Schlüsse ziehen zu können. Dieses Problem ist heute aber nicht nur eines der Wissenschaft, sondern auch eines der Ökonomie.3 Je nach Ausstattung von Forschungsbereichen, werden Fehlereinschätzungen und -korrekturen mit mehr oder weniger großem Erfolg betrieben. Solche Fragen werden z.B. bei Big Data-Berechnungen virulent. Gerade hier besteht die Gefahr, dass einmal digitalisierte Informationen in Modellen oder Simulationen verrechnet werden, ohne dass die Daten einer genauen Prüfung ihrer Aussagekraft unterzogen wurden. Weil es mit den heutigen Rechnerkapazitäten so einfach geworden ist, große Mengen an Daten zu verwerten, wird selbiges getan. Aus diesem Grund muss man annehmen, dass mit der Digitalisierung auch das Maß an unwissenschaftlicher bzw. pseudo-wissenschaftlicher Vorstellung zugenommen hat, ohne dass eine gesellschaftliche Instanz die Erkenntnisfehler in jedem Moment klar identifizieren und eingrenzen könnte.4 Natürlich gibt es eine große Zahl wissenschaftlicher Prüfungen und die Praxis der wissenschaftlichen Kritik. Nur braucht diese Arbeit ihre Zeit - Zeit der Forschung und Zeit der Bildung - und ihr Ertrag ist nicht unmittelbar verfügbar: Ebendies ist der eklatante Widerspruch zur ›just-in-time‹-Logik der Digitalisierung.

Korporatistischer Charakter heutiger Wissenserzeugung

Deshalb steht die Wissenschaft mit der Digitalisierung vor der Gefahr, in pseudo-wissenschaftliche Praxis abzurutschen. Hierbei spielt auch eine Rolle, wie die gegenseitige Kritik institutionell abgesichert wird. Indem der Wettbewerb über Exzellenztitel, Drittmittelsummen und Zitationsindizes geschürt wird, sind die Bedingungen für eine unabhängige und gründliche Kritikpraxis beträchtlich gesunken.5 Durch die Einbindung vieler Wissenschaftlerinnen und Wissenschaftler in die Strategiebildungen einer unternehmerischen Universität, die dem Aufbau von Prestige und Macht dienen, tendiert die ›wissenschaftliche Gemeinschaft‹ dazu, korporatistisch zu werden. Das heißt, dass Zusammenschlüsse gesucht werden, aus denen sich Vorteilsnahmen etwa bei der Begutachtung von Drittmittelprojekten, Zeitschriftenartikeln und Kongressbeiträgen organisieren lassen. Die Digitalisierung hilft dabei, die umfangreiche Kennziffernbildung und die quantifizierende Beurteilung von wissenschaftlichen Arbeiten weiter voranzutreiben, so dass qualitativ geführte Prüfungen ins Hintertreffen geraten. Indem Plattformen wie "researchgate" oder "academia" die Arbeiten von Wissenschaftlerinnen und Wissenschaftlern zusammen mit ihren persönlichen Daten abgreifen, wächst sehenden Auges die Gefahr, dass ein Überwachungssystem über den Wissenschaftsbetrieb aus privatwirtschaftlicher Hand entsteht.

Studium und Lehre sind von solchen Entwicklungen mindestens indirekt betroffen, etwa weil den Lehrenden nicht mehr genügend Zeit für die Betreuung der Studierenden bleibt und eine Jagd auf Forschungsmittel die nächste treibt. Ferner muss die Schulung des Denkens und der Erfahrung unter diesem zunehmend unternehmerisch und zeitverschwenderisch organisierten Wissenschaftsbetrieb leiden. Hier geht es um organisierte unproduktive Zeitregimes. Dies ist hervorzuheben, weil es auch eine nur vermeintlich nutzlose Zeit in Forschung und Studium gibt, die für Irrtümer und Umwege benötigt wird, wodurch Erkenntnis wachsen kann. Gemeint sind aber die unproduktiven Zeitzwänge fürs Anträge-Schreiben und -Begutachten, weil ein beträchtlicher Teil von Forschungsvorhaben abgelehnt werden muss und die formale Anpassung an Vorgaben und Leitlinien in der Regel wenig erkenntnisbringend ist. Und auf die Abgabefrist für einen Antrag folgt nicht selten das Ablaufdatum des eigenen Arbeitsvertrages. So entsteht unweigerlich der Eindruck einer ›Wegwerf-Wissenschaft‹.

Ein auf kurzfristige Ziele hin orientiertes Arbeiten und der Verlust an Kritik- und Urteilsfähigkeit korreliert mit weiteren Veränderungen der Lebensumstände - bei Studierenden wie auch bei Wissenschaftler/inne/n.

Man kann im Kontext von Studium und Lehre nicht länger außer Acht lassen, wie die digitalen Technologien, allen voran das Internet und die mobilen Endgeräte, die Lebenszusammenhänge der Menschen von innen heraus verändern. Sie stellen beständig verfügbare Ansichten der Welt bereit und sind als ›soziale Medien‹ ein untrennbarer Bestandteil von Beziehungen und alltäglicher Selbstreflexionen geworden. Sie beanspruchen viel Zeit, um Webseiten, ›soziale Medien‹ und ›Follower‹ etc. auf aktuellem Stand zu halten. In diesem Tun sind sie zugleich sinnproduzierende und sinnerfüllende Momente des Alltags geworden. Und wer kann schon widerstehen, wenn das eigene Gedächtnis etwas länger braucht, kurz sein Handy zu befragen?

Der Umgang mit schnell verfügbaren Daten und Sinnangeboten hat sich im Alltag stark ans digitale Weltbild angepasst. So kommen Studierende mit Überzeugungen und Erwartungen an sich selbst ins Studium, die für das Lernen in der Wissenschaft häufig nicht zuträglich sind. Sie zweifeln oft daran, dass sie mit gründlichem Lesen und Diskutieren ein besseres Verständnis von wissenschaftlichen Theorien und empirischen Forschungen aufbauen können. Was nicht schnell gelernt ist, erscheint unlernbar. Bis hin zur Promotionsphase glauben Studierende mitunter, dass sie beim Lernen nur Informationen aufzunehmen bräuchten. Sie schätzen zugleich die Zeit, die es für ein tieferes Verstehen von Wissen braucht, als viel zu kurz ein. Entsprechend nehmen Lernprozesse nicht selten die ungünstige Form an, die mit ›Bulimie-Lernen‹ umschrieben wird. Solches wird meist nicht vorsätzlich praktiziert, sondern eher mangels hinreichender Berührung mit Lehr-Lernverhältnissen, die Wege zu einem gründlichen Arbeiten konkret zeigen und reflektierend ein angemessenes Bewusstsein fürs eigene wissenschaftliche Lernen fördern.

Ideologien über akademische Bildung

Der entscheidende Schachzug für das heute vorherrschende Bildungsverständnis lief über die Sprache: Bedingungslos verfügbar wie Informationen stellen sich menschliche Fähigkeiten dar, da man sie nicht länger den schwierigen Bildungsprozessen zuordnen muss, sondern Kompetenzbeschreibungen und Modulen. Kompetenzen schließen dabei nicht nur Fähigkeiten im klassischen Sinne, sondern sogar die Bereitschaft und den Willen der Menschen mit ein. Auf diese Weise ist es möglich, das Können des realen Subjekts wie auch sein gemeinsames Vermögen in der Kooperation kontext- und subjektunabhängig darzustellen, so als wäre es weder eine Frage des persönlichen Interesses noch des eigenen subjektiven Standpunkts und gelebter Beziehungen. Es gibt eine Reihe gewichtiger Gegenargumente gegen diese verdinglichenden Kompetenzvorstellungen, die an dieser Stelle nicht wiederholt werden müssen. Die ›Kompetenzorientierung‹ gehört zumindest zu einer Ideologie, die besonders wirksam ist, weil sich in ihr Alltagspraktiken mit Alltagsvorstellungen verschweißen können. Bislang wurde dabei nur selten beachtet, wie sich über die Kompetenzbeschreibungen eine normative Macht aufbaut, die bei Studierenden auch Schuld- oder Minderwertigkeitsgefühle hervorruft. Denn diese ahnen oft die Diskrepanz zwischen den formal durch Prüfungen bescheinigten und den tatsächlich angeeigneten Kompetenzen.

Das nahezu unbegrenzte digitale Abspeichern und das schnelle Aufrufen von Internetseiten hat zusammen mit Kompetenzbeschreibungen eine alltagspraktische Grundlage geliefert, um sich auch menschliche Denkfähigkeiten auf eine trivialisierte und technizistische Weise vorzustellen. Ansätze dazu existierten auch schon lange davor. Im Modularisierungsprozess der Bologna-Reform wurde z.B. die Taxonomie von Bloom aus dem Jahr 1956 als angeblich immer noch wissenschaftlich gültige Vorstellung herangezogen. Eine daraus abgeleitete Hierarchisierung zwischen Fähigkeiten des Verstehens und des Anwendens von Wissen wurde in die Leitlinien der neuen Studiengangskonzeption aufgenommen. Demnach sollten sich die Lehrformen nicht mehr so sehr auf Verstehensprozesse konzentrieren, sondern vielmehr praktische Anwendungen schaffen. Dass aber Verstehen mehr ist als nur Informationen abzuspeichern oder Inhalt zu konsumieren, sondern im Studium ein Hinterfragen von Zusammenhängen und eigenen Denkweisen sein sollte, wird in dieser Überhöhung von Praxiserfahrungen zumeist verkannt. Zusammen mit den veränderten Erwartungen und Überzeugungen der Studierenden ergibt sich für das wissenschaftliche Lehren und Lernen eine schwierige Situation.

Anstoß zur Neuerfindung von Studium und Lehre

Angesichts dieser Problematik ist über eine Neuerfindung von Studium und Lehre nachzudenken. Insbesondere Studierende und Nachwuchswissenschaftler/innen sind das schwächste Glied im heutigen Wissenschaftssystem. Häufig hinterfragen sie die grundlegenden gesellschaftlichen Veränderungen nicht. Das Kritisieren, Hinterfragen und die Arbeit am Allgemeinen der Wissenschaft fallen schnell dem Prüfungs- und Arbeitsdruck und der prekär gewordenen Existenzsicherheit zum Opfer. Ihre Reflexion reicht selten an Fragestellungen, wie ihr Fach verschiedenen Verwertungsinteressen unterstellt und Forschungspraxis an ökonomische Verwertungskontexte angepasst wird. Auch hier spielt die Digitalisierung eine Rolle, schon weil sie weitgehend von global agierenden Konzernen vorangetrieben wird. Die vor- und pseudowissenschaftlichen Praxen und die Interessensgegensätze in Verwissenschaftlichungsprozessen müssten deshalb in allen Fachgebieten, in jeder Studiengangkonzeption, in jeder Lehreinheit kritisch reflektiert werden. Sonst wirken die akademischen Bildungsinstitutionen daran mit, die Voraussetzungen für eine Demokratisierung digitalisierter Gesellschaften zu entsorgen.

Anmerkungen

1) Marc Ingo Wolter et al. 2016: IAB-Forschungsbericht 13/2016: Wirtschaft 4.0 und die Folgen für Arbeitsmarkt und Ökonomie. Szenario-Rechnungen im Rahmen der BIBB-IAB-Qualifikations- und Berufsfeldprojektionen.

2) Wolf Singer 2018: "Was passiert, wenn wir das richtige Lesen verlernen?" (Im Gespräch mit J. Müller-Jung). Frankfurter Allgemeine Zeitung, 13.10.2018.

3) Ines Langemeyer 2019: Digitalisierung als Herausforderung für Personalentwicklung und Mitbestimmung. Unternehmensstrategien der IT-Branche und ihre Bedeutung für Weiterbildung, Opladen.

4) Ines Langemeyer 2015: Das Wissen der Achtsamkeit. Kooperative Kompetenz in komplexen Arbeitsprozessen, Münster.

5) Tilman Reitz 2016: "Von der Kritik zur Konkurrenz. Die Umstrukturierung wissenschaftlicher Konflikte und ihre Wissenseffekte", in: sub\urban. zeitschrift für kritische stadtforschung. H. 2/3: 37-58.

Ines Langemeyer ist Universitätsprofessorin für Lehr-Lernforschung, Allgemeine Pädagogik und Berufspädagogik am Karlsruher Institut für Technologie.