Kurz vorweg, weil das die Frage ist, wegen der du hier bist: ChatGPT ist keine wissenschaftliche Quelle. Du zitierst ChatGPT in einer Bachelor- oder Masterarbeit nicht, um eine inhaltliche Aussage zu stützen. Du zitierst ChatGPT nur dann, wenn der KI-Output selbst dein Untersuchungsgegenstand ist — also bei linguistischen Analysen, didaktischen Studien oder einer Inhaltsanalyse generierter Texte. Alles andere ist akademisch nicht haltbar, und an den meisten deutschsprachigen Hochschulen 2026 ohne ausdrückliche Offenlegung unzulässig.
Dieser Beitrag zeigt dir, warum das so ist, was Hochschulen aktuell verlangen, und — falls dein Fall tatsächlich ein Sonderfall ist — wie du ChatGPT korrekt zitierst.
Warum ChatGPT keine Quelle im wissenschaftlichen Sinn ist
Eine wissenschaftliche Quelle erfüllt drei Bedingungen: nachvollziehbare Urheberschaft, Qualitätssicherung (typischerweise Peer-Review), Reproduzierbarkeit. ChatGPT erfüllt keine davon.
- Keine:n Autor:in. OpenAI ist Betreiberin, aber nicht Autorin im inhaltlichen Sinn. Das Modell generiert statistisch, nicht argumentativ.
- Kein Peer-Review. Niemand hat die Aussage geprüft, bevor sie auf deinem Bildschirm landet.
- Keine Reproduzierbarkeit. Derselbe Prompt produziert morgen eine andere Antwort. Modellversionen werden ohne Vorwarnung getauscht. Eine andere Person bekommt nicht denselben Text.
- Halluzinationsrisiko. Sprachmodelle erfinden Inhalte und Quellenangaben, die plausibel klingen, aber nicht existieren. Das Thema ist gross genug für einen eigenen Beitrag — siehe KI-Quellenhalluzinationen.
Wer ChatGPT als Beleg für eine Sachaussage zitiert (“laut ChatGPT ist die durchschnittliche Lebenserwartung in Japan …”), zitiert im Kern: eine Maschine sagt, dass etwas wahrscheinlich so klingt. Das ist kein wissenschaftliches Argument.
Was Hochschulen 2024 bis 2026 typisch verlangen
Die deutschsprachigen Hochschulen — von ETH Zürich über Universität Zürich, LMU München, TU München bis HU Berlin — haben ihre Richtlinien zwischen 2023 und 2025 angepasst. Die Details unterscheiden sich, das Muster ist überall ähnlich:
- Kennzeichnungspflicht. Jede Nutzung generativer KI in einer schriftlichen Arbeit muss transparent gemacht werden — meistens in der Eigenständigkeits- bzw. eidesstattlichen Erklärung. Wer das verschweigt, riskiert eine Bewertung als Täuschungsversuch, mit allen Konsequenzen bis zur Aberkennung des Titels.
- Verbot generierter Inhalte als eigene Leistung. Du darfst dir keinen Abschnitt schreiben lassen und ihn als deine intellektuelle Arbeit ausgeben. Auch nicht “umformuliert”.
- Erlaubt sind in der Regel: Sprach- und Stilkorrektur, Rechtschreibhilfe, Übersetzungshilfe, Brainstorming, Strukturvorschläge, Code-Hilfe in technischen Arbeiten — sofern dies in der Erklärung offengelegt wird.
- Streng verboten: Quellenangaben übernehmen, die ChatGPT vorschlägt, ohne sie gegen das Original zu prüfen. Genau hier passieren die meisten Skandale.
Die genaue Formulierung steht in der Prüfungsordnung deines Studiengangs oder im Merkblatt deines Lehrstuhls. Lies das Dokument deiner Hochschule. Eine generische Internetrecherche ersetzt das nicht.
ChatGPT zitieren als Untersuchungsobjekt — der Sonderfall
Es gibt legitime Fälle, in denen du ChatGPT zitierst: wenn du den Output selbst untersuchst. Beispiele:
- Eine linguistische Bachelorarbeit zu Genderbias in KI-Antworten.
- Eine pädagogische Studie, wie Schüler:innen ChatGPT-Texte einschätzen.
- Ein Methodenkapitel, in dem du dokumentierst, wie ChatGPT eine Aufgabe gelöst hat.
In diesen Fällen ist die generierte Antwort dein Primärmaterial, vergleichbar mit einem Interviewtranskript. Und damit gilt: Das Material muss dokumentiert, datiert und prüfbar sein.
Was du dokumentieren musst
- Das verwendete Modell und die Version (z. B. GPT-5, Stand März 2026).
- Den vollständigen Prompt, exakt so eingegeben.
- Das Datum und die Uhrzeit der Abfrage.
- Die vollständige Antwort — am besten im Anhang als Wortprotokoll. Ohne Anhang ist deine Quelle nicht überprüfbar, also wissenschaftlich wertlos.
APA 7 — Eintrag im Literaturverzeichnis
OpenAI. (2026). ChatGPT (Version GPT-5, Stand März 2026)
[Large language model]. https://chat.openai.com
Im Text: (OpenAI, 2026).
Harvard (Author-Date) — Eintrag im Literaturverzeichnis
OpenAI (2026) ChatGPT (Version GPT-5, Stand März 2026)
[Large language model]. Verfügbar unter:
https://chat.openai.com (Zugriff: 12. März 2026).
Im Text: (OpenAI 2026).
Prompt-Dokumentation (Beispiel für deinen Anhang)
Anhang A1 — KI-Abfrage
Modell: GPT-5 (OpenAI, ChatGPT, Stand 12. März 2026)
Datum: 12.03.2026, 14:22 MEZ
Prompt: "Beschreibe in drei Sätzen, wie sich der Begriff
'Bildung' im 19. Jahrhundert von Humboldt zu Spencer
verschoben hat."
Antwort: [vollständiger Antworttext, 4 Absätze, siehe A1.1]
Erlaubt — Grauzone — Verboten
| Kategorie | Beispiele |
|---|---|
| Erlaubt mit Kennzeichnung | Rechtschreib- und Stilkorrektur, Übersetzungshilfe, Glossarprüfung, Brainstorming für Gliederung, Erklärung von Konzepten zur eigenen Vorbereitung |
| Grauzone | Argumentationsskizzen ableiten, Absätze umformulieren lassen, Zusammenfassungen von Texten generieren, Code für Auswertung schreiben lassen |
| Verboten | Generierte Quellenangaben ungeprüft übernehmen, ganze Abschnitte als eigenen Text ausgeben, Faktenaussagen mit ChatGPT belegen, KI-Nutzung verschweigen |
Die Grauzone ist genau das: grau. Was bei einem Lehrstuhl als unkritische Schreibhilfe gilt, ist beim nächsten ein Verstoss. Frag im Zweifel vor dem Schreiben deine:n Betreuer:in und halte die Auskunft schriftlich fest.
Mini-Muster für die Eigenständigkeitserklärung 2026
Viele Hochschulen ergänzen die klassische Erklärung um einen KI-Absatz. Ein typischer Wortlaut:
Ich erkläre, dass ich diese Arbeit selbstständig verfasst habe. Generative KI-Werkzeuge habe ich wie folgt eingesetzt: ChatGPT (GPT-5, OpenAI) zur Rechtschreib- und Stilkorrektur in Kapitel 3 sowie zur Übersetzung englischer Fachzitate in den Fussnoten 14, 22 und 31. Alle inhaltlichen Aussagen, Argumente und Schlussfolgerungen stammen von mir. KI-generierte Quellenvorschläge habe ich vollständig gegen die Originale geprüft und nur nach Verifikation übernommen.
Das ist ein Muster, kein Rechtsbeleg. Prüf den exakten Wortlaut deiner Hochschule und halte dich strikt daran — Abweichungen führen in der Praxis zu Nachfragen.
Die häufigsten Fehler
- ChatGPT-generierte Literaturlisten ungeprüft übernehmen. Ein Klassiker: “Gib mir zehn Quellen zu Thema X.” Sieben sind erfunden. Drei existieren, sagen aber nicht das, was du behauptest. Resultat: Falschzitate in deiner Arbeit — siehe wieder KI-Quellenhalluzinationen.
- ChatGPT-Texte ohne Kennzeichnung einbauen. Auch wenn niemand es merkt, weil der Stil “stimmt”: Wenn es entdeckt wird (und Detektionstools werden besser), ist das Täuschung.
- ChatGPT-Output als Faktenbeleg. “Laut ChatGPT” ist keine Quellenangabe. Es ist die offene Aussage, dass du keine echte Quelle gefunden hast.
- Modellversion und Datum vergessen. Wer ChatGPT legitim zitiert, aber Modell und Datum weglässt, hat eine nicht-prüfbare Quelle. Das ist schlechte Wissenschaft, auch wenn das Zitieren formell korrekt aussieht.
Fazit und Schlusscheck
ChatGPT ist 2026 für Studierende ein Werkzeug, kein Belegmedium. Korrekt eingesetzt sparst du Zeit beim Korrekturlesen und beim Strukturieren. Falsch eingesetzt produzierst du Falschzitate, riskierst dein Prüfungsergebnis und in schweren Fällen deinen Abschluss.
Die wichtigste Regel ist nüchtern: Jede Quelle, die ChatGPT dir vorschlägt, musst du gegen das Original prüfen — und zwar bevor sie in deine Arbeit kommt. Genau dafür ist Acurio gebaut. Du lädst deine Arbeit und die Quell-PDFs hoch, wir prüfen jedes einzelne Zitat gegen die wirklich vorhandene Stelle in der Quelle und melden zurück: belegt, teilweise belegt, nicht belegt. Was ChatGPT verspricht, prüfen wir nach. Eine Stunde Aufwand spart dir im schlechtesten Fall den Abschluss.