​​​​​​​Anhörung zur Künstlichen Intelligenz im Wissenschaftsbetrieb

Experten berichten im Wissenschaftsausschuss von großen Chancen

23. Juni 2023

MÜNCHEN.    In der Landtagsanhörung im Ausschuss für Wissenschaft und Kunst zum Thema „Chancen und Risiken von KI im Wissenschaftsbetrieb“ forderten die Experten ein „kalibriertes Vertrauen“ in die neue Technologie. Man müsse Studierende und Lehrende auf deren Einsatz vorbereiten.

Gleich zwölf Experten konnte der Ausschussvorsitzende Robert Brannekämper (CSU) zu einer intensiven Diskussion über die Künstliche Intelligenz (KI/AI) im Hochschulbereich begrüßen. „Wir brauchen mehr didaktische Schulungen und eine zunehmende Forschung im Bereich der Künstlichen Intelligenz, dann können wir gemeinsam an den Hochschulen diese Herausforderung schultern“, erklärte Dr. Uwe Fahr, Mitarbeiter am Fortbildungszentrum Hochschullehre der Friedrich-Alexander-Universität Erlangen-Nürnberg. Auch bei den Digitalisierungswellen der letzten 30 Jahre hätten die Reaktionen immer zwischen Euphorie und Panik geschwankt. So würden sich jetzt Studenten fragen, ob das Erlernte in naher Zukunft überflüssig werde. Teilziele würden sich durch KI durchaus ändern, die Prüfungen müssten kompetenzorientierter werden. KI könne aber ein guter Impuls sein, diesen gewünschten Effekt zu stärken.

Prof. Dr. Enkelejda Kasneci vom Lehrstuhl für Human-Centered Technologies for Learning an der TU München, sprach über generative KI. Sie zitierte Ex-US-Bildungsminister Richard Riley: „Wir bilden derzeit Lernende für Arbeitsplätze aus, die noch nicht existieren, um Technologien einzusetzen, die noch nicht erfunden wurden, damit sie Probleme lösen, von denen wir noch nicht einmal wissen, dass sie Probleme sein werden.“ Kasneci lobte, ChatGPT helfe, Schreibarbeit zu automatisieren und Kreativität zu steigern. Im Prinzip könne nun jeder Gedichte „prompten“ oder ganze Drehbücher schreiben. Man könne nur erahnen, was mit der Kombination Text/Bild künftig noch möglich werde. Es dürfe kein Absolvent mehr aus der Uni herauskommen, der kein Grundwissen über KI habe.

Von Teufeln und blindem Vertrauen

„KI ist eine neue Technologie, die man nicht von vornherein verteufeln und ablehnen, sondern integrieren sollte“, sagte Prof. Dr. Dr. Eric Hilgendorf, Inhaber des Lehrstuhls für Strafrecht, Strafprozessrecht, Rechtstheorie, Informationsrecht und Rechtsinformatik an der Julius-Maximilians-Universität Würzburg. Es seien viele Vorteile zu erwarten, auch Fähigkeitsverluste, und es gebe rechtliche Probleme. Nicht jeder Verlust müsse beklagt werden: „Goethe konnte noch reiten, die Technikentwicklung hat das obsolet gemacht.“ Das Prüfungsrecht sei nicht vorbereitet auf KI-Einsatz. Integriere man KI in die Ausbildung, schaffe man zudem die Gefahr einer Mithaftung der Universitäten für Rechtsverstöße etwa beim Datenschutz oder Urheberrecht. Auch enthalte ChatGPT in seiner Struktur Regeln, die unangemessene Rede, rechtswidrige Inhalte und Vergleichbares unterbinden soll. „Es gibt dabei aber auch Vorgaben, die unser Verständnis von Meinungsfreiheit betreffen“, warnte Hilgendorf vor der Übernahme von abweichenden US-Standards.

Prof. Dr. Niklas Kühl, Inhaber des Lehrstuhls für Wirtschaftsinformatik und humanzentrische Künstliche Intelligenz an der Universität Bayreuth, wies auf die hohe Geschwindigkeit in der KI-Entwicklung hin: „Jeden Tag erscheinen allein rund 100 neue Artikel zu diesem Thema.“ Es sei unbestritten, dass moderne KI-Tools einen großen Einfluss auf unser Leben hätten. Sie könnten aber Lernverhalten, Arbeit der Dozierenden und Hochschulverwaltung potentiell unterstützen. „Am Ende stellt sich für Hochschulen die Frage: In welchen Arbeitsmarkt entlassen wir in Zukunft die Studierenden?“ In einer globalisierten Welt werde jedes vorhandene Tool genutzt. Man solle deshalb deren Einsatz außerhalb von Prüfungen aktiv fördern. Dafür brauche es klare Regeln für den fairen und reflektierten Einsatz, die „Rules for Tools“. „Dozierende und Studierende müssen vor allem eines entwickeln: ein kalibriertes Vertrauen in diese Tools. Also den Mittelweg zwischen blindem Vertrauen und dem kompletten Vermeiden.“

„Wir stecken mitten in der digitalen Transformation“, erklärte Prof. Dr. Robert Lepenies, Präsident der Karlshochschule International University in Karlsruhe. Man brauche ein neugeformtes Bildungsverständnis, erhöhte Praxisorientierung in den Hochschulen und eine kritisch-neugierige Haltung, um diese Technologieentwicklung gestalten zu können. „Eine kontinuierliche Beschäftigung mit KI ist für Lehrende und Lernende und besonders für Hochschulleitungen unausweichlich“, so Lepenies. Es brauche neben digitalen Anwendungs- auch kritische Einordnungskompetenzen, die es mit interdisziplinärer Zusammenarbeit und einem lernzentrierten Bildungsanspruch gebe.

Kein Grund zur Panik

„Ruhe bewahren, aber dennoch wachsam sein“, forderte Prof. Dr. Peter Riegler, Geschäftsführer und wissenschaftlicher Gesamtleiter des Bayerischen Zentrums für Innovative Lehre. Er beobachte eine große Unruhe unter den Lehrenden, nachdem klar geworden sei, dass KI-Tools einfache Aufgabenstellungen meistern könnten. Dies verdeutliche, dass man in der Hochschulbildung kompetenzorientierter arbeiten müsse, allerdings sei das schwerer und zeitaufwändiger. Die Lehrenden brauchten mehr Unterstützung, für komplexere Lernziele Prüfungsitems zu kreieren. Ob KI disruptiv sein werde, bezweifelte Riegler, weil er „einen stabilen Hochschulbereich“ sehe, der schon andere Störungen bewältigt habe. „Ich sehe keinen Grund zur Panik, aber wir sollten uns beunruhigen lassen und handeln.“

Prof. Dr. Barbara Plank, Professorin für Künstliche Intelligenz und Computerlinguistik an der LMU, betonte, dass das Aufkommen von sich schnell weiterentwickelnden Sprachmodellen wie ChatGPT eine neue Ära einläute, nicht nur in der Forschung. „Es ist daher wichtig, so viel wie möglich Wissen dafür zu schaffen, um dieses kalibrierte Vertrauen zu ermöglichen.“ ChatGPT werde die Zukunft mitgestalten, „als transformative Technologie, ähnlich wie das Aufkommen des Internets“. Ein breiter Zugang sei besonders wichtig, für die Forschung vor allem zu den Trainingsdaten der Tools. „Je größer diese Datenmenge ist, umso besser werden diese Systeme“, so Plank. Das brauche Regulierung, „aber nicht Überregulierung“.

„Wieso sollte ich noch Kompetenzen erwerben, wenn am Ende doch die KI alles übernimmt?“, so warnte Prof. Dr. Thomas Seidl, Inhaber des Lehrstuhls für Datenbanksysteme und Data Mining an der LMU, Mitglied des Bayerischen KI-Rats und Direktor des Munich Center for Machine Learning (MCML), vor einem Motivationsverlust der Studierenden. Dabei sei der Mensch weiter unersetzlich. Hier sei das Humboldt-Prinzip wichtig, um dieses Problem konstruktiv zu lösen: Forscher sind Lehrer, Lehrer sind Forscher. Man solle bei der KI nicht nur auf Regulierung und Überwachung achten, sondern das mit den Chancen ausbalancieren. „Sonst koppeln wir uns ab und die Amerikaner übernehmen das Feld.“

„Offenheit und Zugänglichkeit sind das Grundprinzip einer Bibliothek“, erklärte Konstanze Söllner, Direktorin der Universitätsbibliothek der Friedrich-Alexander-Universität Erlangen-Nürnberg und erste stellvertretende Vorsitzende im Verein Deutscher Bibliothekarinnen und Bibliothekare. Ein Ausschluss von Werkzeugen oder Methoden aus der wissenschaftlichen Arbeit, der Lehre oder den Aktivitäten der Studierenden sei dem Selbstverständnis einer Bibliothek fremd. Für die ständig neuen Datenbanken und lizenzierten KI-Tools werde aber oft nur Zugang für einen Lehrstuhl finanziert, nicht für die ganze Universität. „Man braucht jedenfalls KI, um den großen Publikationsoutput noch zu erfassen“, so Söllner.

Torsten Utz, Sprecher der Landes-ASten-Konferenz Bayern, war der Ansicht, dass die KI „in viele Aspekte unseres Lebens zunehmend Einzug“ halte, einschließlich des akademischen und wissenschaftlichen Betriebs. „Mit Schrecken haben wir jetzt schon festgestellt, dass einzelne Universitäten den Einsatz der KI verbieten oder einschränken.“ Studierende müssten aber mit Blick auf den Arbeitsmarkt oder eine weitere wissenschaftliche Karriere den Umgang damit lernen. „Umso wichtiger ist es, schnell einheitliche, verständliche und sinnvolle Regeln zu finden, unter welchen Rahmenbedingungen der Einsatz an bayerischen Hochschulen rechtssicher ermöglicht werden kann.“ Wichtig sei auch eine gleichberechtigte, einheitliche und kostengünstige Verfügbarkeit der KI-Tools für alle Studierenden, Lehrenden und Mitarbeitenden. 

Plädoyer für Optimismus

Mit einem „Plädoyer für Bildungsoptimismus“ begann Prof. Dr. Christian Wolff, Gründungsdekan der Fakultät für Informatik und Data Science der Universität Regensburg. Die neuen Werkzeuge bedeuteten mehr Aufwand, würden aber Bildungsprozesse verbessern. „Wir sollten sie grundsätzlich im Sinne einer Chancenorientierung betrachten und nicht als Risiko und Gefahr.“ Er erinnerte an die Forschung hinter der KI. „Die ersten neuronalen Netze gehen auf die 1940er Jahre zurück, Deep-Learning-Verfahren sind seit den 90er Jahren auch hier in München entwickelt worden.“ Diese Technologie würde alle Fächer betreffen, beim Studiengang Data Science anders als bei Germanistik. „Das Prompten wird das neue Googeln sein, oder wird das Googeln ergänzen.“ Zudem brauche man eine nationale Infrastruktur, um nicht von US-Technologiekonzernen abhängig zu sein. Die aktuelle McKinsey-Studie spreche zwar von Arbeitsplatzverlusten durch KI, aber auch davon, dass sie einen riesigen Produktivitätszuwachs ermöglichen könne.

„Wir müssen es schaffen, dass wir es in der Bildung erreichen, alle Menschen, die diese Technologie verwenden, darauf vorzubereiten, was sie da eigentlich tun“, betonte Prof. Dr. Diedrich Wolter, Professor für Angewandte Informatik an der Otto-Friedrich-Universität Bamberg. Die Technik entwickele sich rasant immer weiter. Für die Aufgabe „AI for all“ solle man unbedingt Nüchternheit und Optimismus kombinieren, denn die KI-Werkzeuge seien in der Tat nützlich. Keiner verzichte schließlich auf Internetsuchmaschinen, obwohl man auch da Bedenken haben könnte. Wolter wandte sich „gegen die Fokussierung auf Kompetenzorientierung: Basis für Kompetenz bleibt Faktenwissen. Nur weil wir Dinge im Internet nachschlagen können, heißt es nicht, dass wir es auch tun.“

In der anschließenden Fragerunde der Fraktionen wollte Prof. Dr. Winfried Bausback (CSU) Informationen, wie die freiheitliche Gesellschaft vor negativen Einflüssen der KI zu schützen sei. Verena Osgyan (BÜNDNIS 90/DIE GRÜNEN) fragte nach der strukturellen Verankerung der KI-Schulung an den Hochschulen. Christian Flisek (SPD) wollte wissen, ob die Gesetzgebung Vorgaben für das kalibrierte Vertrauen liefern sollte. Wie Mindermeinungen in der KI geschützt werden können, fragte Ulrich Singer (AfD). Der Vorsitzende Robert Brannekämper (CSU) erkundigte sich, welche Lizenzen und Mittelbereitstellungen die Hochschulen hierfür bräuchten, um den politischen Handlungsbedarf dahingehend auszuloten. 

Die Experten erklärten, man müsse darauf achten, dass sich nicht über KI-Trainingsdaten die Vorstellungen eines Landes durchsetzten. Es brauche mehr Transparenz bei den Filtermechanismen. Regulierung sei notwendig, solle aber niedrigschwellig bleiben und Innovationen unterstützen. Kritisches Auseinandersetzen mit der Technologie sei wichtig, ebenso in der Forschung „am Ball zu bleiben“. Genannt wurde das Projekt „AIM“ an der LMU, also Schulungsmodule für alle Fakultäten. Hier brauche es mehr Sachmittel und Lizenzen. Als weitere Fördermöglichkeiten wurden Start-Ups genannt. Generell sei Technik- und Unternehmensfreundlichkeit, Bürokratieabbau und eine Aufbruchsstimmung gefordert.

/Andreas von Delhaes-Guenther

Randspalte

Back to top