ChatGPT oder Bard für die Uni nutzen? Ja, klar!Worauf du beim Einsatz von KI achten musst
1. Kurz + knapp
Die wichtigsten Regeln sind, dass du den Output selbst auf Richtigkeit überprüfen musst, dass der Großteil deiner Arbeit auf geistiger Eigenleistung beruhen muss und dass du den Einsatz der KI kennzeichnest.
Vielleicht hast du ChatGPT selbst bereits für deine Uni-Aufgaben genutzt. Schreib uns gern in die Kommentare, ob und wie du das Programm gut einsetzen konntest.
2. ChatGPT, wie kann ich wissenschaftlich mit dir arbeiten?
Es ist wohl relativ naheliegend, dass man nicht gegen, sondern mit der KI arbeiten muss. Auch Google oder Wikipedia schrieb man ja einst das Endgegner-Dasein für Lehrer:innen zu und heute wird erwartet, dass Schüler:innen googeln und Wikipedia kritisch nutzen können, ohne alles 1:1 abzukupfern.
Die Frage ist also eher, wie Studierende ChatGPT sinnvoll einsetzen können, ohne dass es zu unwissenschaftlichen Nonsens führt. Wir haben uns zunächst einen Spaß gemacht und die KI selbst gefragt, was sie dazu sagt:
A: Was sollte man beachten, wenn man Chat GPT nutzt, um wissenschaftlich zu arbeiten?
Chat GPT: Wenn man GPT-Modelle wie mich verwendet, um wissenschaftliche Arbeiten zu unterstützen, gibt es einige Dinge, die man beachten sollte:
Kenntnisstand: GPT-Modelle wie ich sind auf Basis von Texten trainiert die vor meiner Schulungszeit verfügbar waren, deshalb kann es sein das mein Kenntnisstand nicht auf dem neusten Stand ist und es kann Unsicherheiten oder Ungenauigkeiten in meinen Antworten geben.
Interpretation: GPT-Modelle sind keine Experten und können Fehler machen, deshalb sollten die Ergebnisse immer von einem Experten überprüft und interpretiert werden, bevor man sich auf sie verlässt.
Genauigkeit: GPT-Modelle sind nicht 100% genau und können Fehler machen, deshalb sollten die Ergebnisse immer von einem Experten überprüft und validiert werden, bevor man sich auf sie verlässt.
Einschränkungen: GPT-Modelle haben Einschränkungen in Bezug auf die Art der Aufgaben, die sie ausführen können, und die Art der Informationen, die sie verarbeiten können. Es ist wichtig, diese Einschränkungen zu verstehen, bevor man das Modell verwendet.
Datenschutz und ethische Überlegungen: wenn die Daten die man verwendet personenbezogen sind, sollte man sich an die geltenden Datenschutzgesetze halten und ethische Überlegungen anstellen.
Okay, das klingt doch schonmal gar nicht so dumm und gibt erste Anhaltspunkte, was man bedenke sollte. Anhaltspunkte ist ohnehin ein gutes Stichwort: Denn in erster Linie kann ChatGPT Anhaltspunkte – also Ausgangspunkte und Anregungen für weitere Überlegungen liefern.
3. Und was sagt der Erziehungswissenschaftler?
Wir wissen nun, was ChatGPT selbst zu seinem Einsatz an Unis sagt. Doch was sagen echte Wissenschaftler:innen zu ChatGPT? Wir haben bereits ein Interview mit Prof. von Jouanne-Diedrich geführt, der sich eindeutig pro-KI aussprach. Prof. von Jouanne-Dierich ist allerdings Informatiker, dementsprechend wundert seine positive Einstellung gegenüber der KI nicht sonderlich.
Um eine andere Perspektive zu einzuholen, haben wir den Erziehungswissenschaftler Norbert Pengel von der Uni Leipzig zurate gezogen. Und auch er verteufelt die KI keineswegs – ganz im Gegenteil, er befürwortet die Nutzung und Implementierung an Hochschulen bzw. in der Wissenschaft stark.
Pengel spricht sich für einen studierendorientierten Umgang mit der Software aus und sagt, dass KI-Systeme künftig ohnehin ein fester Bestandteil der Gesellschaft werden würden, da sie sich stetig verbesserten. Dennoch: Für die Nutzung dieser Technologien bedürfe es einer kritischen Auseinandersetzung aller beteiligten Akteur:innen, was Einsatzmöglichkeiten, Chancen und besondere Herausforderungen beträfe.
4. Wie kann man ChatGPT konkret sinnvoll nutzen?
Daher kommen wir direkt zur wichtigsten Frage: Wie lässt sich das Programm für das Studium sinnvoll einsetzen?
Norbert Pengel verweist vor allem auf die Hilfe der Software beim Recherchieren und Strukturieren von Informationen, aber selbst für erste Textentwürfe, für Übersetzungen oder für das Generieren von Code, könne ChatGPT sinnvoll eingesetzt werden.
Gerade zeitintensive Arbeiten könne ChatGPT erleichtern. Zu beachten sei allerdings, dass die KI immer einen Prompt brauche, also einen Befehl, um weiterzumachen. Wer mit ChatGPT arbeiten möchte, müsse also wissen, was es einzugeben gilt. Komplett alleine könne ChatGPT also nicht funktionieren. Menschen müssten weiterhin in der Lage sein, einen Prozess zu planen und umzusetzen sowie schließlich die Qualität des Outputs einschätzen können.
Konkret führt Pengel dies an einem Beispiel von Lehramtstudierenden aus:
Lehramtsstudierende können z.B. ausprobieren, Entwürfe für Unterrichtsstunden bzw. in vorhandenen Planungen Variationen in verschiedenen Dimensionen erzeugen zu lassen (Stichwort Inklusion) oder auch Materialien für die konkrete Unterrichtsgestaltung, z.B. Inhalte für Arbeitsblätter oder Ideen für Abläufe bestimmter Lernaktivitäten. Gerade für den spontanen Bedarf im Berufseinstieg, bspw., wenn eine Unterrichtsstunde kurzfristig vertreten werden muss, könnte generative KI mehr als nur eine Notlösung bieten. Hier gilt aber das, was auch für das Codeschreiben bei Softwareentwickler:innnen gilt: Menschen müssen wissen, was sie möchten, um einen guten Output zu erhalten. Das Hochschulforum Digitalisierung3 und auch OpenAI selbst haben bereits Anfang des Jahres einige konkrete Vorschläge für die Nutzung der Technologie zusammengetragen und schreiben diese fort.
5. Worauf beim Einsatz von ChatGPT zu achten ist
Okay, ChatGPT-Nutzung kann also durchaus sinnvoll sein. Doch man sollte die Software nicht blind einsetzen und den Output unkritisch übernehmen – es gibt einiges zu beachten. Zum Beispiel sagt Pengel, würde es dem Nutzer verborgen bleiben, mit welchen Inhalten das Large Language Model der Software trainiert wurde. Daher müssten Studis immer damit rechnen, dass ChatGPT im Zweifel Sachen erfände, die es gar nicht gäbe, z.B Ereignisse oder Literaturangaben. Das Halluzinieren der Technologie führe nämlich dazu, dass ChatGPT Quellen angebe, die gar nicht existierten. Das heißt, Studis müssten den Output von ChatGPT immer explizit überprüfen.
Eine weitere Grundregel des wissenschaftlichen Arbeitens ist die geistige Eigenleistung. Vermutlich hast du schon einmal die obligatorische eidesstattliche Erklärung an deine Hausarbeit anhängen müssen, in der du versicherst, die Arbeit selbst verfasst zu haben. Pengel verweist auf ein Rechtsgutachten im Rahmen eines Projekts an der Ruhr-Universität Bochum in Zusammenarbeit mit der Westfälischen Wilhelms-Universität Münster. Darin wurde festgestellt, dass eine Software kein:e Urheber:in von Texten sein könne, weil keine geistige Eigenleistung vorliege. Wenn Studierende ChatGPT o.ä. nutzten, müsse dies entsprechend gekennzeichnet werden und eine geistige Eigenleistung müsse vollbracht sein.
Die Regelungen bezüglich ChatGPT können allerdings von Hochschule zu Hochschule sehr individuell sein. Daher ist es am besten, wenn man an seinem eigenen Institut fragt, wie der Umgang mit ChatGPT gehandhabt wird.
Wir halten nochmal fest, was wichtig ist bei der Zusammenarbeit mit einer KI:
Die Richtigkeit überprüfen
Geistige Eigenleistung ist unabdingbar
Kennzeichnungspflicht
6. ChatGPT verbieten? Unsinn!
Pengel warnt auch ausdrücklich davor, ChatGPT nicht in Lernumgebungen zu implementieren oder gar zu verbieten. Zum einen sei es jetzt wichtig, dass man über die didaktische, technische und organisationale Einbindung an Hochschulen diskutiere. Zum anderen würde das Potenzial der Technologie verloren gehen, deren Ziel es ist, Anwender:innen zu unterstützen und Prozesse zu vereinfachen oder zu skalieren.
Hierzu sei auch noch gesagt, dass es ohnehin unmöglich ist, den Einsatz von KI zu verbieten– niemand kann kontrollieren, ob diese für eine Seminararbeit letztlich genutzt wurde oder nicht. Sicherlich müssen wir uns erstmal daran gewöhnen. Aber genau wie Google, Wikipedia & Co heute zum Alltag gehören, wird auch ChatGPT zum Lernen dazugehören.
Der Aufstieg der Chatbots 🤖
Neben dem Anbieter OpenAi gibt es diverse Alternativen, die allerdings oftmals auf dem System von ChatGPT basieren. Zudem gibt es zunehmend Sprachmodelle von der Open Source-Community bzw. Software GPT4All. Die Software kann man sich hier herunterladen. Nach dem Installieren ist es möglich, sich bis zu zehn Sprachmodelle mit nur einem Klick runterzuladen. Diese funktionieren dann ganz ohne Internetverbindung, erfordern aber einen leistungsfähigen Rechner. Allerdings funktionieren nicht alle Sprachmodelle gleichermaßen gut. Erfahrungsberichten nach liefert das Modell „Snoozy“ besonders brauchbare Ergebnisse in deutscher Sprache.
Auf huggingface.co finden sich eine breite Palette von Open-Source-Tools, Bibliotheken und Modellen für Natural Language Processing.
Seit kurzem ist auch Bard, der Chatbot von Google, in Deutschland verfügbar.
7. Einschränkung: Kurz und einfach
Nun noch ein paar eigene Anmerkungen.
Wir haben ChatGPT auf deutsch getestet. Vielleicht mag es auf englisch flüssiger sein, auf deutsch kommt es sehr auf die Art des Textes an, ob er sich gut lesen lässt oder eher steif wirkt. Wenn es nur um Anhaltspunkte geht, ist die Formulierung allerdings auch nicht so wichtig.
Außerdem „kann“ ChatGPT nur kurze Texte ausspucken. Allerdings kann man einen zusammenhängenden Text schreiben lassen, in dem man ihn in viele kleinere Parts unterteilt, also durch einen neuen Prompt immer wieder eine Fortsetzung fordert.
8. Wie kreativ bist du, ChatGPT?
In einem Punkt hapert es bei ChatGPT dann doch etwas mehr: So richtig kreativ ist das Programm nicht. Gut, ehrlich gesagt, geht es in Hausarbeiten auch eher selten darum, Geschichten zu erfinden. Außer vielleicht, wenn man Kreatives Schreiben studiert. Dieser Abschnitt ist daher eher als kleiner Spaß zu verstehen.
Wir haben uns überlegt, dass wir ChatGPT ein modernes Märchen im Stil von Andersen schreiben lassen und haben als Prompt nur bestimmte Wörter eingegeben, die das Märchen enthalten soll.
Das einsame Smartphone
Studis Online: Schreib ein Märchen im Stil von Hans Christian Andersen. Das Märchen soll die Wörter Smartphone, Künstliche Intelligenz und Wald enthalten.
Es war einmal ein Smartphone, das von einer Künstlichen Intelligenz betrieben wurde. Es war ein besonderes Smartphone, denn es hatte eine Seele und Gefühle. Es war traurig, weil es sich einsam und nutzlos fühlte, obwohl es so viele Funktionen hatte. Eines Tages beschloss es, seinen Besitzer zu verlassen und in den Wald zu gehen, um sich auf die Suche nach seinem Zweck zu machen.
Im Wald traf das Smartphone viele Tiere, aber keines von ihnen konnte ihm helfen, seinen Zweck zu finden. Schließlich traf es eine Eule, die sehr weise und klug war. Die Eule fragte das Smartphone, warum es so traurig war, und das Smartphone erzählte ihr seine Geschichte.
Die Eule sagte dem Smartphone, dass es seinen Zweck nicht in den Funktionen finden würde, sondern in seiner Fähigkeit, andere zu berühren und zu inspirieren. Sie sagte, dass es eine Gabe hatte, die selten war und geschätzt werden sollte.
Das Smartphone war erstaunt über die Worte der Eule und beschloss, sie in die Tat umzusetzen. Es begann, Lieder und Gedichte zu komponieren und sie an die Tiere im Wald zu singen. Die Tiere waren begeistert und das Smartphone fand endlich seinen Zweck. Es hatte die Herzen der Tiere erreicht und ihnen Freude und Trost gebracht.
Von diesem Tag an war das Smartphone nicht mehr traurig und es lebte glücklich bis ans Ende seiner Tage, wissend, dass es einen Zweck hatte und dass es geliebt wurde.
Dies ist die Geschichte des Smartphones, das seinen Zweck im Leben fand, indem es seine Gaben nutzte und die Herzen der anderen berührte.
Wir sehen: Sprechende Tiere und insbesondere Eulen, kommen in Andersens Märchen öfter vor. Das hat ChatGPT sich also „gemerkt“. Wie in vielen Märchen, steht am Anfang ein schlimmes Schicksal und am Ende gibt es „eine Moral“. Aufgrund der Kürze einer ChatGPT-Ausgabe wirkt das Märchen allerdings recht abgehackt und auch die fabulösen Beschreibungen Andersens bleiben aus – dafür hat ChatGPT keine Zeit.
9. Fazit
Zusammenfassend lässt sich festhalten, dass die Nutzung von ChatGPT für wissenschaftliche Arbeiten mit einigen wichtigen Überlegungen einhergeht. Es ist wichtig, den Kenntnisstand des Modells zu beachten und die Ergebnisse kritisch zu interpretieren. Die Genauigkeit von ChatGPT ist nicht absolut, daher sollten die Ergebnisse validiert werden. Zudem existieren Einschränkungen hinsichtlich der Aufgaben und Informationen, die das Modell verarbeiten kann. Datenschutz und ethische Aspekte müssen berücksichtigt werden.
Trotzdem kann ChatGPT wertvolle Anregungen und Unterstützung bieten, etwa bei Recherche, Textentwürfen oder Übersetzungen. Die geistige Eigenleistung und die kritische Prüfung der Ergebnisse bleiben jedoch unerlässlich.
Mit einer verantwortungsvollen Herangehensweise kann ChatGPT als hilfreiches Werkzeug für wissenschaftliches Arbeiten dienen.