
Lange habe ich mich um diesen Blog-Beitrag gedrückt. Denn obgleich ich die Frage in jedem Workshop gestellt bekomme, kommt die Beantwortung immer schnell in die Richtung einer Rechtsberatung. Da ich keine Juristin bin, darf, will und kann ich das aber nicht.
Dennoch: Ich setze mich viel mit den Regeln auseinander, muss sie ja auch selber kennen, weil ich viel mit KI mache. Deshalb hier meine Recherchen und meine persönliche Praxis dazu – plus Links zu hilfreichen Leitfäden anderer.
Und nochmal deutlich: Ich bin keine Juristin und dies ist keine Rechtsberatung. Im Zweifel holt euch rechtliche Unterstützung.
Kein Urheberrecht (oder?)
KI-generierte Inhalten fehlt die „persönliche geistige Schöpfung“. Das heißt: Ein Text, den ChatGPT schreibt, oder ein Bild aus Midjourney ist nicht urheberrechtlich geschützt. Für viele Vereine und NGOs ist das erstmal eine gute Nachricht – ihr könnt die Inhalte frei verwenden. Allerdings auch jeder*r andere. Euer selbstgeneriertes tolles Logo – nicht schützbar. Alle meine Drachen – nicht schützbar. Und für Kreative und Agenturen, die KI in Design-Prozesse einbeziehen, wird es noch viel herausfordernder…1 (Quelle z.B. https://digitalzentrum-berlin.de/leitfaden-ki-generierte-inhalte-kennzeichnen)
International kann das übrigens anders sein. In China bspw. gibt es auch bei KI-generierten Inhalten eine Autorenschaft beim Menschen. Aber Europa und USA sind sich bisher zumindest weitgehend einig.
Aber was, wenn ich nacharbeite?
Was, wenn ich ein Bild oder einen Text nachbearbeite? Nehmen wir diesen Newsletter als ein typisches Beispiel aus meinem Alltag. Ich habe eine Idee und diskutiere sie mit ChatGPT. Ich recherchiere mit Perplexity und ChatGPT. Dann schreibe ich einen Textentwurf mit Claude. Ich überarbeite den Text, ergänze Beispiele wie dieses und checke die Fakten, setze Links. Ich integriere KI-generierte Bilder. Zuletzt lasse ich eine KI die Rechtschreibung und Formatierung checken. Ist der Text jetzt eine geistige-schöpferische Leistung mit Urheberrecht – oder weiter Allgemeingut? Niemand weiß es aktuell.
Ein Beispiel aus den USA zeigt das am individuellen Fall: Das US Copyright Office musste über den Comic „Zarya of the Dawn“ entscheiden. Die Einzelbilder waren mit Midjourney erstellt – diese bekamen keinen Urheberrechtsschutz. Aber: Der selbst geschriebene Text und vor allem das Gesamtwerk wurden als geschützt eingestuft. Die kreative Leistung lag in der Auswahl und Anordnung der Bilder zum Text.2
Was das für diesen Blog-Beitrag bedeutet? Ich weiß es nicht.
Und wie muss ich kennzeichnen?
Aktuell (April 25) gibt es keine spezifische Kennzeichnungspflicht für KI-generierte Inhalte. Das bedeutet aber nicht, dass es ein rechtsfreier Raum ist: Bestehende Gesetze gegen Irreführung, Betrug oder Desinformation und auch Marken- und Persönlichkeitsrechte gelten selbstverständlich auch für KI-Inhalte. Das heißt zum Beispiel: Eine täuschend echte KI-Aufnahme von Angela Merkel, die Falschaussagen verbreitet? Verboten! Ein KI-generierter Leitfaden, der sich als „von Menschen handgeschrieben“ ausgibt? Auch problematisch.
Aber jetzt kommt doch der EU AI ACT
Ab August 2025 schaffte der EU AI Act dann mehr Klarheit für die Transparenz. Die neue Verordnung unterscheidet erstmal klar, wo KI-Nutzung gekennzeichnet werden muss – und wo bzw. wann nicht. Die entsprechenden Artikel gegen DeepFakes und für Transparenz gelten jedoch erst ab Herbst 2026. Dann gilt:
- Deepfakes und fotorealistische Bilder? Ja, unbedingt kennzeichnen.
- Chatbots auf eurer Website? Klar, die auch – denn Menschen sollen wissen, wenn sie mit KI interagieren.
- Und wenn ihr Texte zu öffentlichen Themen ohne redaktionelle Kontrolle veröffentlicht, müsst ihr die KI-Unterstützung ebenfalls offenlegen. Das macht Sinn, denn gerade bei politischen oder gesellschaftlichen Themen wollen Menschen wissen, woher Inhalte stammen.
(1) Die Anbieter stellen sicher, dass KI-Systeme, die für eine direkte Interaktion mit natürlichen Personen bestimmt sind, so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen darüber informiert werden, dass sie mit einem KI-System interagieren, es sei denn, dies ist aus der Sicht einer natürlichen Person, die unter Berücksichtigung der Umstände und des Nutzungskontexts angemessen informiert, aufmerksam und umsichtig ist, offensichtlich.
[…]
(4) Wer ein KI-System einsetzt, das Bild-, Audio- oder Videoinhalte erzeugt oder manipuliert, die einen Deep Fake darstellen, muss offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden. […]
Wer ein KI-System einsetzt, das Text generiert oder manipuliert, der zu dem Zweck veröffentlicht wird, die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, muss offenlegen, dass der Text künstlich generiert oder manipuliert wurde.
Diese Verpflichtung gilt nicht, […] wenn die KI-generierten Inhalte einer menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.
EU AI ACT, Artikel 50 in Auszügen
Wenn ihr dagegen KI nur als Schreibassistenz nutzt oder Texte redaktionell überarbeitet, braucht ihr wohl keine Kennzeichnung. Auch die interne Nutzung für Recherche, Brainstorming oder Textverbesserung bleibt kennzeichnungsfrei. Allerdings bringt der EU AI Act auch neue Transparenzpflichten für die interne Nutzung von KI in Organisationen mit sich. Eine Dokumentation oder Leitlinien, wie ihr KI nutzt, wird damit sehr sinnvoll (und gute Schulungen aller Mitarbeitenden auch – dazu gilt die Kompetenz-/Schulungspflicht für Unternehmen und Organisationen übrigens schon seit Februar 2025).
Was übrigens weitgehend ungeklärt ist, ist wie genau die Kennzeichnung zu erfolgen hat (Text, technisch im Bild, maschinenlesbar etc.). Erstmal sind da die KI-Anbieter in der Pflicht robuste Lösungen mit Wasserzeichen etc. zu entwickeln. (Absatz 2)
Was die Plattformen vorgeben
Die Plattform-Regeln sind oft strenger als die Gesetze – und gelten bereits ab dem Moment, wo ihr AGBs oder Community Guidelines bestätigt:
Tools zur KI-Generierung
Midjourney, Ideogram, Flux, Stable Diffussion, DALL-E und Adobe Firefly erlauben weitgehend zwar sogar die kommerzielle Nutzung ihrer Bilder., aber Die Einschränkungen stecken im Detail: Viele verbieten die Nutzung für politische Kampagnen oder kontroverse Themen. Auch eine Kennzeichnungspflicht kann sich in den Nutzungsbedingungen verstecken. Oder Einschränkungen wie die Erlaubnis eigene Bilder zu verwenden, aber nicht die anderer… Es hilft nix: Lest die Bedingungen durch, wenn ihr Sicherheit braucht.
Hier mein Recherchestand von Februar 2025:
⛔ Quasi alle Tools untersagen Irreführung, Hass, Pornographie etc.
❗ Persönlichkeits-, Marken- und Urheberrecht gelten weiter.
📝 Nur Freepik weist auf Kennzeichnungspflicht bei freien Inhalten hin.
ABER: Auf Social Media Plattformen können Kennzeichnungspflichten als KI-generiert bereits bestehen.
Midjourney (Midjourney)
✅ Kommerzielle Nutzung: Erlaubt – unter Beachtung von Einschränkungen (z. B. bei der Verwendung von Inhalten Dritter)
❌ Politische Nutzung: Explizit verboten (keine politischen Kampagnen, Wahlwerbung o. Ä.)
DALL‑E (OpenAI)
✅ Kommerzielle Nutzung: Erlaubt.
✅ Politische Nutzung: Erlaubt.
Stable Diffusion (Stability AI)
✅ Kommerzielle Nutzung: Erlaubt – Community-Lizenz für Nutzer (Jahresumsatz < $1M)
✅ Politische Nutzung: Erlaubt
Ideogram (Ideogram AI)
✅ Kommerzielle Nutzung: Erlaubt – Nutzung variiert je nach Account (Free vs. Paid)
❌ Politische Nutzung: Nutzungen zu politischen Zwecken sind ausgeschlossen
Freepik (Freepik)
✅ Kommerzielle Nutzung: Erlaubt – sowohl für private als auch kommerzielle Projekte (bei Free-Inhalten meist mit Attributionspflicht)
❓Politische Nutzung: Nutzung darf keine Unterstützung suggerieren (indirekt vermutlich politische Nutzung ausgeschlossen)
Adobe Firefly(Adobe)
✅ Kommerzielle Nutzung: Erlaubt – generell gestattet; bei Betaversionen evtl. spezielle Einschränkungen
✅ Politische Nutzung: Erlaubt
Flux (Blackforest Forest Labs)
🔀 Kommerzielle Nutzung: Variiert je nach Variante:
• Flux.1 [schnell] (Apache‑2.0) erlaubt kommerzielle Nutzung
• Flux.1 [dev] ausschließlich nicht-kommerziell
• Flux.1 [pro] kommerzielle Nutzung über API gemäß vertraglicher Bedingungen
✅ Politische Nutzung: mindestens beim schnellen Modell erlaubt
Bei Textgenerierungstools sind die Einschränkungen meist nicht ganz so groß.
Plattformen zum Teilen
Auch auf den Plattformen auf denen wir die Inhalte teilen wollen, gibt es Spielregeln.
Meta entwickelt für Facebook, Instagram und Threads eine automatische Erkennung von KI-Bildern. Der Fokus liegt auf fotorealistischen Aufnahmen. Die anderen großen Plattformen arbeiten an KI-Richtlinien. Das gilt besonders für die, die selbst KI-Generierung integrieren. Auch hier gilt: Wer mitspielen will, muss die Spielregeln kennen und akzeptieren.
So arbeite ich bisher
Bei Illustrationen bin ich transparent, aber pragmatisch. Ein einzelner Hinweis auf der Website oder in der Präsentation reicht mir, wenn der KI-Einsatz ohnehin erkennbar ist. Bei fotorealistischen Bildern achte ich auf Kennzeichnung in Bildnähe.
Für umfangreichere Texte gebe ich einen allgemeinen Hinweis auf KI-Unterstützung z.B. auf der Website, im Impressum etc. Die Endredaktion liegt ohnehin immer bei mir. Ein Rechtschreibcheck oder das Formulieren eines Social Media Posts kennzeichne ich nicht. Jede Post-Idee ist weiterhin von mir bzw. fische ich sie bewusst aus Brainstormings mit KI – ich automatisiere nicht.
Wer es genauer dokumentieren will: An Hochschulen entstehen gerade detaillierte Dokumentationsformate. Sie schlüsseln auf, wie KI im Arbeitsprozess eingesetzt wurde:
- Recherche
- Ideenfindung
- Strukturierung
- Ausformulierung
- Feedback
- Rechtschreibkontrolle
Ein Tipp: Einige Organisationen unten haben bereits Leitlinien veröffentlicht. Sie gehen über die rechtlichen Vorgaben hinaus.
Quellen und zum Weiterleisen
1 digitalzentrum-berlin.de/leitfaden-ki-generierte-inhalte-kennzeichnen
2 Heise online
EU AI ACT (automatische Übersetzung): https://artificialintelligenceact.eu/de/article/50
Leitlinien der Deutschen Presseagentur (dpa): https://innovation.dpa.com/2023/04/03/kuenstliche-intelligenz-fuenf-guidelines-der-dpa/
Leitlinien des Ev. Werkes für Diakonie und Entwicklung: https://www.diakonie.de/diakonie_de/user_upload/diakonie.de/PDFs/Publikationen/Leitlinien_zur_Nutzung_von_KI_im_EWDE__M%C3%A4rz_2024__extern.pdf
Handlungsempfehlungen zum Umgang mit KI-basierten Anwendungen der Uni Osnabrück inkl. weitreichendem Link-Verzeichnis zu anderen Hochschulen: https://www.uni-osnabrueck.de/virtuos/lehren-und-lernen/ki-in-studium-und-lehre/handlungsempfehlungen-zum-umgang-mit-ki-basierten-anwendungen