Magazin erwachsenenbildung.at regelt Kennzeichnung KI-generierter Texte

11.04.2023, Text: Bianca Friesenbichler, Redaktion/CONEDU
Künstliche Intelligenz (KI) wird als Autor*in nicht anerkannt und kann daher nicht zitiert werden. KI-generierte Texte oder Teile sind aber jedenfalls auszuweisen.
Code über Frau projiziert
KI wird auch in der Wissenschaft u.a. zum Texten eingesetzt. Redaktionen und Verlage müssen einen Umgang damit finden.
Grafik: Pexels Lizenz, ThisIsEngineering/pexels.com, auf erwachsenenbildung.at
Fortschrittliche KI-Chatbots sind längst auch in der Forschung angekommen und unterstützen nicht nur die Forschung selbst, sondern auch wissenschaftliche Schreibprozesse. Redaktionen und Verlage sind daher gefordert, die Nutzung von KI zum Erzeugen von Texten anzuerkennen, aber klare Richtlinien festzulegen, um Missbrauch zu vermeiden. Die Redaktion des "Magazin erwachsenenbildung.at" hat sich damit beschäftigt und Leitlinien entwickelt.

Regeln zum Umgang mit KI-generierten Texten für das Magazin erwachsenenbildung.at

Etwa die Zeitschrift Nature hat sich damit auseinandergesetzt und redaktionelle Regeln zum Umgang mit KI-generierten Texten formuliert. Die Redaktion des Magazin erwachsenenbildung.at nimmt darauf Bezug und formuliert folgende Richtlinien zu KI-generierten Texten oder Textteilen:

  • Das Magazin erwachsenenbildung.at akzeptiert Künstliche Intelligenz nicht als Autor*in, da mit der Autor*innenschaft eine Rechenschaftspflicht für die Arbeit einhergeht, die KI nicht übernehmen kann. Zudem kann KI Nutzungsbedingungen nicht zustimmen. KI kann daher nicht als Autor*in zitiert werden, sondern muss anderweitig ausgewiesen werden (siehe Punkt 2).
  • Wenn Autor*innen KI-Tools für das Texten ihres Magazin-Artikels verwenden, müssen sie dies in den Abschnitten zur Forschungsmethodik ausweisen. Wenn der Artikel solche Abschnitte nicht enthält, kann die Ausweisung in der Einleitung, am Ende oder in einem anderen geeigneten Abschnitt, etwa in einer Fußnote, erfolgen.
  • Wird die Verwendung von KI für die Erstellung des Artikels oder von Textteilen nicht entsprechend ausgewiesen, wird der Text als Plagiat angesehen.

KI-erstellte wissenschaftliche Texte nur mehr schwer von menschlichen Texten unterscheidbar

KI ist immer besser in der Lage, flüssige Sprache zu erzeugen und produziert Sätze, die immer schwerer von Texten, die von Menschen geschrieben worden sind, zu unterscheiden. In einem Experiment wurde ChatGPT gebeten, 50 medizinische Forschungszusammenfassungen zu schreiben, die im Anschluss mit den Originalabstracts verglichen wurden. Dazu wurden technische KI-Output-Detektoren, aber auch eine Gruppe von medizinischen Forscher*innen eingesetzt. Ergebnis war: Die von KI-generierten Zusammenfassungen durchliefen alle den Plagiatsdetektor, der KI-Output-Detektor entdeckte 66% der generierten Zusammenfassungen. Die menschlichen Prüfer*innen identifizierten 68% der KI-generierten Abstracts als echt und 14% der echten Abstracts als KI-generiert. Das heißt, Expert*innen sind nicht mehr in der Lage, zu bestimmen, was "wahr" ist und was nicht, sorgt sich Sandra Wachter, Expertin für Technologie und Regulierung an der Universität Oxford (UK). Aus diesen Gründen sind Redaktionen und Verlage gefordert, sich mit KI auseinanderzusetzen und einen Umgang damit zu finden. 

Weitere Informationen:
Creative Commons License Dieser Text ist unter CC BY 4.0 International lizenziert.

Verwandte Artikel