Springe direkt zu Inhalt

Podiumsdiskussion: Holistischer Helfer oder befangene Blackbox? – Chancen und Risiken von KI in der Hochschullehre

Podiumsdiskussion: KI in der Hochschullehre - Potenziale und Gelingensbedingungen

Podiumsdiskussion: KI in der Hochschullehre - Potenziale und Gelingensbedingungen

News vom 02.10.2023

German U15 und die Friedrich-Ebert-Stiftung haben am 16. November gemeinsam eine Podiumsdiskussion zum Thema „Holistischer Helfer oder befangene Blackbox? – Chancen und Risiken von KI in der Hochschullehre“ veranstaltet. Auf dem Podium diskutierten die Bundestagsabgeordnete Dr. Lina Seitzl, Mitglied im Ausschuss für Bildung, Forschung und Technikfolgenabschätzung für die SPD, Ralph Forsbach, Co-Founder und CEO des EdTech-Startups Brian AG, Sebastian Horndasch, Leiter des University:Future Festivals beim Hochschulforum Digitalisierung und Prof. Dr. Elisabeth Mayweg, Juniorprofessorin für digitales Wissensmanagement in Studium und Lehre an der Humboldt-Universität zu Berlin. Moderiert wurde die Diskussion von German U15-Geschäftsführer Dr. Jan Wöpking. Florian Dähne, Referent für Bildung und Wissenschaft der Friedrich-Ebert-Stiftung, eröffnete die Veranstaltung und betonte dabei die Dringlichkeit, sich über die Auswirkungen von Künstlicher Intelligenz (KI) in der Hochschullehre auszutauschen.

 

IMPULS: NEUESTE ENTWICKLUNGEN IM BEREICH DER GENERATIVEN KI UND POTENZIELLE AUSWIRKUNGEN AUF DIE HOCHSCHULLEHRE

Moderator Wöpking übergab zu Beginn das Wort an Prof. Dr. Doris Weßels, Professorin für Wirtschaftsinformatik an der Fachhochschule Kiel, die den aktuellen Stand zu KI in der Hochschullehre mit großer Fachexpertise einordnete. In ihrem Impulsvortrag zeichnete Weßels am Beispiel von ChatGPT die rapiden Entwicklungen im Bereich der KI in den letzten Jahren nach. Mit den großen Fortschritten, die im Bereich der generativen künstlichen Intelligenz gemacht wurden, gehe zugleich ein Transparenz-Rückgang einher, was Trainingsdaten und Trainingsmethoden von Large Language Models (LLMs) angeht. Die neuesten und bisher leistungsstärksten generativen KI-Modelle tragen daher immer deutlicher Züge einer Blackbox. Der gegenwärtig sehr stark umkämpfte und hochdynamische Wettbewerb in der KI-Branche werde, laut Weßels, an Modellen wie ChatGPT deutlich, deren Trainingsdaten und Quellcode nicht offen sind – auch zum Nachteil wissenschaftlicher Bemühungen, die Transparenz von KI-Systemen zu erhöhen.

Das Potenzial von KI in der Hochschullehre, verdeutlichte Weßels an einem Praxisszenario, in dem ChatGPT die Rolle eines Lerntutors einnimmt, der unmittelbar und persönlich per Spracheingabe bei der Prüfungsvorbereitung im Studium unterstützt, dabei Prüfungsaufgaben erläutert, Hintergrundwissen vermittelt und auf individuelle Lernschwächen eingeht. Hierin wird zugleich ein noch unerforschtes Risiko deutlich: in der Interaktion mit der KI entstehe ein „Beziehungsfake“, denn KI simuliere und imitiere eine menschliche und persönliche Interaktion bloß. Ohne didaktische Flankierung bestehe das Risiko, dass ein Abhängigkeitsverhältnis zwischen Mensch und KI-Agent entsteht, in dem die Lernenden ihrem virtuellen Tutor ein nicht vorhandenes semantisches Verständnis und Beziehungsfähigkeit zuschreiben.

Die Weiterentwicklung von KI-Systemen wie ChatGPT hin zu immer weiter an die Nutzungsbedürfnisse anpassbaren Systemen verspreche gerade in Kombination mit Multimodalität, also der Fähigkeit von KI-Systemen verschiedene Arten von Daten (Text, Audio, Video) miteinander zu verbinden, innovative und inklusivere Möglichkeiten der Lehrgestaltung. Doch gerade in der Lehre sieht Weßels die Gefahr, dass der „Digital Divide“ durch den unbedarften KI-Einsatz verschärft werden könne. Gerade leistungsschwächere Studierende könnten sich von KI dominiert fühlen und so die Kontrolle über ihren eigenen Lernprozess an den KI-Tutor abgeben, während leistungsstärkere Studierende umso mehr von den Vorteilen von KI zu profitieren wüssten. Dieser Gefahr der verschärften Spaltung müsse sowohl didaktisch als auch durch gesamtgesellschaftliche Reflexionsbemühungen entgegengetreten werden.

Zum Abschluss ihres Vortrags wiederholte Weßels noch einmal die Forderungen, die sie bereits vor dem Bundestagsausschuss Bildung, Forschung und Technikfolgenabschätzung vorgebracht hatte: Es gelte baldmöglich eine Taskforce KI-Bildung einzusetzen und zentral zu verankern, um gerade auch Lehrende gezielt in der Auseinandersetzung mit und Nutzung von KI zu unterstützen. Daneben gelte es rechtliche Klarheit bei der Nutzung von KI-Systemen herzustellen und den KI-Einsatz DSGVO-konform zu ermöglichen. Insgesamt brauche es ein verändertes Mindset, das der Digitalisierung in der Bildung eine größere Priorität zuweist, gleichzeitig Risiken und Potenziale mit Augenmaß abwägt und dabei pragmatische Lösungen ermöglicht.

 

STUDIERENDENPERSPEKTIVE: EINSATZ VON KI FÜR VIELE BEREITS UNI-ALLTAG

Um der Podiumsdiskussion eine studentische Perspektive voranzustellen, interviewte Moderator Wöpking im Anschluss an den Impuls von Weßels den Masterstudenten der Digital Humanities an der Universität Regenburg Jakob Berg, der auch Stipendiat der Friedrich-Ebert-Stiftung ist. Im Gespräch wurde klar, dass je nach Studiengang der Einsatz von KI bereits jetzt eine ausgeprägte Rolle im Studium einnimmt. In der Datenanalyse, auch im politikwissenschaftlichen Kontext, sei KI nicht mehr wegzudenken. KI helfe bei der Prüfungsvorbereitung und unterstütze bei der Zusammenfassung der Studieninhalte. Gleichzeitig betonte Berg, dass es an Bildungsangeboten zum Einsatz von KI im Studium fehle, gerade in Fakultäten, die vergleichsweise geringen IT-Bezug aufwiesen. Auf die Frage, was aus studentischer Perspektive notwendig wäre, um den KI-Einsatz fakultätsübergreifend zu ermöglichen, stellte Berg zwei Punkte voran: 1. KI müsse fakultätsübergreifend in jedem Lehrplan eine Rolle spielen, beispielweise durch die Thematisierung des „Prompt Engineering“, also der methodischen Kenntnis, die richtigen Eingaben bei einem Chatbot wie ChatGPT zu tätigen, um hilfreiche Outputs zu generieren; 2. ähnlich anderer studentischer Lizenz-basierter Angebote für Software müsse der breiten Studierendenschaft auch der Zugang zu KI-Systemen ermöglicht werden, um das Risiko von Bildungsungerechtigkeit zu verringern.

 

PODIUMSDISKUSSION

Auf die Frage von Moderator Wöpking was es aus der Perspektive der Lehrenden an der Hochschule für das Gelingen des Einsatzes von KI brauche, betonte Bildungswissenschaftlerin Mayweg eingangs, dass der Mangel an adäquater Infrastruktur an Hochschulen ein Hindernis sei, um mit KI effektiv lehren und arbeiten zu können. Gleichzeitig sei es wichtig, gerade hinsichtlich der rasanten Entwicklung von KI eine gemeinsame Kultur zu etablieren, die perspektivübergreifend in der Lage ist, jeweilige Bedarfe abzuklären, Strukturen zu reflektieren und Angebote zu entwickeln, um Studierende wie auch Lehrende nachhaltig an die Nutzung von KI heranzuführen. Nach Sebastian Horndasch sei KI kein reines Hype-Thema, sondern bringe tatsächlich große Veränderungspotenziale mit sich, die bereits jetzt deutlich spürbar würden. Hierbei betonte er, dass KI Veränderungen auf allen Ebenen der Hochschule anstoßen werde, die Neuordnung jedoch nicht darin liegen könne, den zwischenmenschlichen Aspekt der Bildungsbeziehung zu minimieren, sondern dass es darum gehe, Lehrende in ihren Potenzialen mithilfe von KI zu augmentieren.

Ralph Forsbach, Mitgründer und CEO des EdTech-Startups Brian AG machte klar, welche Vision sein Unternehmen bei der Entwicklung von KI-Tools für Hochschulen verfolgt: Das Ziel sei, dass „dank KI das Lehren, aber auch das Lernen besser wird“. Mithilfe des generativen KI-Assistenten Brian können Lehrende in der Erstellung von Lehrmaterialien unterstützt werden, die didaktisch und inhaltlich auf die jeweiligen Anforderungen des Kurses abgestimmt sind. Im Vordergrund stehe dabei, den KI-Assistent in die sozialen Interaktionen zwischen Lehrenden und Lernenden einzubetten und einen datensicheren und kostenfreien Zugang zu Large Language Models wie ChatGPT zu schaffen, der allen Beteiligten zugutekommt.

Die Bundestagsabgeordnete Lina Seitzl stellte die Wichtigkeit struktureller Rahmenbedingungen heraus und betonte die Aufgabe des Staates, die Voraussetzungen zu schaffen, die einen offenen und sicheren Zugang zu KI gewährleisten und eine anwendungsorientierte Entwicklung von KI in allen möglichen Bereichen – sei es in der Wirtschaft, Bildung, Forschung oder Gesellschaft – zu ermöglichen. Regulierungsvorhaben wie der EU AI Act oder politischen Strategien wie der KI-Aktionsplan des BMBF sollen die Möglichkeiten für eine erfolgreiche und gewinnbringende KI-Nutzung schaffen. Auf die weitere Frage nach den Voraussetzungen für den gelingenden Einsatz von KI in der Hochschule, stellte Mayweg die Bedeutung einer wissenschaftsgeleiteten, systematischen Annäherung an das Thema KI heraus, gerade auch in Bezug auf Fragen wie sich der KI-Einsatz auf Bildungsbeziehungen und Lernprozesse auswirkt. Es brauche dezidiert Forschung, die diese Fragen adressiert und die die Entwicklung von KI-Nutzungsrichtlinien unterstützt, die sicherstellen, dass KI bedarfsgerecht und unter Wahrung des sozialen Aspekts von Bildung eingesetzt werden kann. Horndasch verwies darauf, dass entsprechende Richtlinien auf der Webseite des Hochschulforum Digitalisierung eingereicht werden können. Die eingegangenen Richtlinien würden dann einer Analyse unterzogen, auf deren Grundlage Hochschulen dann dabei unterstützt würden, eigene Leitfäden zu entwickeln (Link:
https://hochschulforumdigitalisierung.de/news/ki-richtlinien-an-deutschen-hochschulen/).

 

KI-PLAGIATE UND DAS ENDE DER SCHRIFTLICHKEIT?

Kontrovers wurde das Thema der Gefahr von Plagiaten durch KI diskutiert. Durch eine Wortmeldung aus dem Publikum wurde die kritische Frage aufgeworfen, wie es in Zukunft überhaupt noch möglich sein wird, KI-gestütztes Plagiieren in schriftlichen Studienarbeiten zu identifizieren. Obwohl das Podium die grundsätzliche Problematik anerkannte, wurde im Folgenden jedoch auch darüber diskutiert, ob diese prüfungsbezogenen Herausforderungen, die KI für die Lehre aufwirft, nicht auch Anreize setzen, um Lehre, Betreuungsverhältnisse und Prüfungsmodalitäten zu überdenken und zu verbessern. Horndasch formulierte die These, dass der Einzug von KI in die Hochschullehre das Ende der klassischen Schriftlichkeit von Prüfungen bedeuten werde. In der Problematik schriftlicher Plagiate durch KI sah auch Forsbach mehr Chance als Risiko. KI verstanden als weiteres Werkzeug und Inspirationsquelle, um selbstständige Auseinandersetzung mit den Lerninhalten anzuregen – so könnten wir in den nächsten Jahrzehnten „dank KI nicht dümmer, sondern schlauer sein“. Die Länder, denen der KI-Einsatz in ihrer Bildungslandschaft nicht gelinge, würden abgehängt werden. Mayweg mahnte an, über die Diskussion über Machbarkeiten und Bemühungen zur raschen Implementierung von KI, grundsätzliche Fragen der universitären Bildung und der ihr zugrundeliegenden Werte nicht aus den Augen zu verlieren. Auch die Bundestagsabgeordnete Seitzl erkannte in den Fragen, die KI jetzt und in Zukunft aufwerfen wird, eine Chance die Bedeutung guter Lehre grundsätzlich zu evaluieren – eine Diskussion, die nur gesamtgesellschaftlich geführt werden könne.

 

BIASES: DIE GEFAHR EINGEBAUTER VORURTEILE VON GENERATIVER KI-MODELLE

Eine weitere Wortmeldung aus dem Publikum brachte die Diskussion auf das Risiko, dass KI-Systeme aufgrund der Datengrundlage, auf der sie trainiert werden, inhärente Biases in ihren Outputs aufweisen können. In der Folge war sich das Podium weitgehend einig, dass dieses Risiko nicht ohne weiteres aufgelöst werden könne. Biases von KI-Systemen stehen neben vielfachen anderen Technologien, die Biases aufweisen, wie z.B. Suchmaschinen, und algorithmisch beförderten Filterblasen, z.B. auf sozialen Internetplattformen wie TikTok. Für Mayweg gilt es daher umso mehr, die Nutzung von KI-Tools so in den Bildungsprozess zu integrieren, dass ein reflektierter Umgang mit ihnen befördert wird. Hierdurch könne eine Resilienz gegenüber Biases entwickelt werden. Gleichzeitig stellte Forsbach die Möglichkeit in den Raum, dass KI-Modelle, die auf einer sehr breit angelegten Datenbasis trainiert wurden, das Potenzial haben könnten, ihren Usern neutralere und vielfältigere Sichtweisen auf Sachverhalte aufzuzeigen. Seitzl hob hierbei den risikobasierten Regulierungsansatz bspw. des EU AI Act hervor, der den KI-Einsatz in Hochrisikobereichen, u.a. in der Bildung, streng reglementieren soll.

 

FAZIT

Zum Abschluss der Diskussionsrunde wünschte sich Forsbach Mut zum Praxisversuch in kleinen, geschlossenen, datenschutzkonformen Pilotprojekten. Positiv hervorzuheben war für Mayweg, dass es neben vielfältigen Herausforderungen hinsichtlich der Implementierung bereits auch viele Lösungen gebe wie der KI-Einsatz in der Praxis gelingen kann. Horndasch rief dazu auf, bestehende Weiterbildungsmöglichkeiten zu KI in der Hochschullehre zu nutzen und Seitzl unterstrich die Notwendigkeit, das Thema KI ganz allgemein in die Breite der Gesellschaft zu tragen. In seinem Schlusswort rekapitulierte Moderator Wöpking die vielfältigen Themen und Fragestellungen, die während der Veranstaltung diskutiert wurden und bedankte sich für die kritisch hinterfragende, als auch optimistisch gestimmte Grundhaltung gegenüber dem Einsatz von KI in der Hochschullehre. Die Hoffnung war mit dieser Veranstaltung zum offenen Dialog zwischen allen beteiligten Interessensgruppen beizutragen, um gemeinsam Lösungen und Rahmenbedingungen zu erarbeiten, die die Potenziale von KI für die Hochschullehre realisieren, während ihre Risiken minimiert werden.

14 / 97