Künstliche Intelligenz ist keine HöllenkunstChatGPT im Studium sinnvoll nutzen
Das Interview erschien im März 2023
Unser Interviewpartner Prof. Holger K. von Jouanne-Diedrich ist Professor für Wirtschaftsinformatik und lehrt an der Technischen Hochschule Aschaffenburg. Er betreibt außerdem den Youtube-Kanal "Follow me, I am a Professor", wo er Videos rund um das Thema Data Science veröffentlicht.
Studis Online: ChatGPT wurde an New Yorker Schulen bereits verboten, da man befürchtet, dass es das Lernen der SchülerInnen negativ beeinflusst – wie sieht es an deutschen Hochschulen aus? In welcher Form wird ChatGPT dort genutzt? Was haben Sie bislang mitbekommen?
Es gibt bisher noch keine einheitliche Handhabung, aber intensive Bemühungen, sich eine Meinung zu bilden und zu einer sinnvollen Linie zu finden. Man hat verstanden, dass die Technologie „aus dem Sack“ ist und sich nicht mehr aus der Welt schaffen lässt. Ich persönlich sehe nicht, dass ein Verbot sinnvoll wäre, noch, dass es sich überhaupt durchsetzen ließe. Ich denke, wenn die Technologie sinnvoll eingesetzt wird, kann sie das Lernen sogar positiv beeinflussen, z.B. indem man mit ChatGPT in einen Dialog tritt, um sich einzelne Konzepte erklären zu lassen, nachzufragen und anhand von Beispielen besser zu verstehen.
Sie sind Professor für Wirtschaftsinformatik. Ich kann mir vorstellen, dass ChatGPT für Ihre Studierenden sehr hilfreich sein kann, schließlich kann ChatGPT sogar coden. Wenn die Software das bereits erledigen kann, warum sollten sich die Studis dann die Mühe machen, noch selbst programmieren zu lernen?
Es gibt diesen schönen Spruch „Du wirst nicht durch eine KI ersetzt, sondern durch einen Menschen mit einer KI“, will sagen: Ich sehe ChatGPT als Hilfsmittel, welche ich inzwischen auch selber nutze. Dabei geht es nicht um die vollständige Übernahme des Codens durch ChatGPT, sondern um ein möglichst effizientes Zusammenspiel zwischen dem System und dem Menschen. Das ermöglicht einen deutlichen Produktivitätsschub sowie die Möglichkeit viel komplexere Projekte umzusetzen. Dafür muss man aber immer noch selber Programmieren können, es lohnt sich also immer noch oder sogar mehr denn je, das zu lernen!
Was denken Sie, wie das in sozialwissenschaftlichen Fächern aussieht, in denen viele Essays und Hausarbeiten geschrieben werden. Ich kann doch einfach ChatGPT meine Hausarbeit schreiben lassen?
Alle Tätigkeiten, die in irgend einer Weise mit Text zu tun haben (und das sind ja eine Menge), werden durch diese Systeme massiv betroffen sein. Alles, was sich damit quasi auf Knopfdruck erzeugen lässt, wird kaum noch etwas wert sein, egal in welchem Kontext. Das bedeutet in der Konsequenz, dass das Niveau für alle deutlich steigen wird, da die Nutzung dieser Systeme zur Normalität werden wird.
Wir haben selbst ein bisschen herum experimentiert mit ChatGPT. Dabei haben wir beispielsweise folgende Frage gestellt: „Wie hoch ist das Einkommen für Personen die Hebammenwissenschaften studiert haben?“ Wir haben eine Antwort erhalten, in der ChatGPT vom TV-H spricht, einem angeblichen Tarif für Hebammen, der vom Deutschen Krankenhausverband festgelegt werde. Doch: Es gibt weder einen TV-H noch einen Deutschen Krankenhausverband. Wir befürchten, dass durch ChatGPT sehr viel Unsinn verbreitet wird, der möglicherweise nicht sofort enttarnt wird. Muss man also jede Information von ChatGPT gegen checken?
Ja, das ist ein Problem bei diesen Systemen, sie neigen manchmal zum „Halluzinieren“, daher ist ein Gegenchecken in jedem Fall notwendig! Der Hintergrund liegt in der Funktionsweise, welche letztlich auf der statistischen Auswertung von riesigen Textmengen basiert. Ich habe dazu auch ein Video gemacht für alle, die das ein bisschen besser verstehen möchten:
Mit Klick auf den Button stimmst du folgendem zu: Dieses eingebettete Video wird von YouTube, LLC, 901 Cherry Ave., San Bruno, CA 94066, USA bereitgestellt.
Beim Abspielen wird eine Verbindung zu den Servern von YouTube hergestellt. Dabei wird YouTube mitgeteilt, welche Seiten du besuchst. Wenn du in deinem YouTube-Account eingeloggt bist, kann YouTube dein Surfverhalten dir persönlich zuzuordnen. Dies verhinderst du, indem du dich vorher aus deinem YouTube-Account ausloggst.
Wird ein YouTube-Video gestartet, setzt der Anbieter Cookies ein, die Hinweise über das Nutzerverhalten sammeln.
Wer das Speichern von Cookies für das Google-Ads-Programm deaktiviert hat, wird auch beim Anschauen von YouTube-Videos mit keinen solchen Cookies rechnen müssen. YouTube legt aber auch in anderen Cookies nicht-personenbezogene Nutzungsinformationen ab. Möchtest du dies verhindern, so musst du das Speichern von Cookies im Browser blockieren.
Weitere Informationen zum Datenschutz bei „YouTube“ findest du in der Datenschutzerklärung des Anbieters unter: https://www.google.de/intl/de/policies/privacy/
https://youtu.be//68G3tOWiDt4
Ist es rechtlich überhaupt erlaubt, eine KI einzusetzen, die Teile meiner Hausarbeit schreibt?
Die zugelassenen Hilfsmittel bestimmen die Hochschulen. Ich persönlich würde zum Einsatz in meinen Hausarbeiten sogar ermutigen wollen, allerdings steigt dadurch dann natürlich auch das Niveau, wie ich ja bereits eben schon sagte. Unerlässlich ist natürlich, dass alle Hilfsmittel, Quellen usw. in der Arbeit sauber zitiert werden, was ja sowieso wissenschaftlich sauberes Arbeiten ausmacht. In fernerer Zukunft könnte man sich sogar eine Situation vorstellen, wo selbst das nicht mehr notwendig ist, weil der Einsatz dieser Systeme vorausgesetzt wird. Sie zitieren ja auch keinen Taschenrechner. Aber so weit sind wir noch nicht. Im Moment liegt die Kompetenz in der klugen Verwendung dieser Systeme, den sogenannten „Prompt Engineering“, also der KI begreiflich zu machen, was Sie eigentlich von ihr wollen. Ich habe dazu auch schon einige Experimente mit meinen Studierenden gemacht: einigen hat der Einsatz fast nichts gebracht, andere waren innerhalb von Minuten mit der gestellten Aufgabe fertig. Das ist ein bisschen wie mit Google, da finden einige ja auch nichts, und andere entdecken nahezu Staatsgeheimnisse.
Was halten Sie von ChatGPT aus ethischer Sicht? Es ist ja bekannt geworden, dass ArbeiterInnen in Kenia sich für wenig Geld viele traumatisierende Inhalte anschauen mussten, um den Bot zu trainieren und „sicher“ zu machen. (Vgl. ChatGPT und Kenia: Schlecht bezahlte Arbeiter müssen strafbare Inhalte aussortieren)
Sie sprechen da einen wichtigen Punkt an, sozusagen das dunkle Geheimnis vieler heutiger KI-Systeme. Da für das Training riesige kuratierte Datenmengen gebraucht werden, sind sehr umfangreiche menschliche Vorarbeiten notwendig - genauso auch für die Nachbearbeitung der Ergebnisse, wie Sie sagen. Dieses passiert leider allzu häufig unter prekären und ausbeuterischen Bedingungen. Ähnliches gilt übrigens für die Content-Kontrolle sozialer Netzwerke, wo Menschen dauernd Tonnen von problematischen Inhalten löschen müssen. Das sind sehr belastende Tätigkeiten. Hier muss sich dringend etwas ändern, aber bisher wissen viele noch nicht einmal von dieser traurigen Tatsache.