Bilder werden heute nicht mehr in der Dunkelkammer entwickelt, sondern mit High-Tech verarbeitet. In diesem Beitrag geht es um digitale Bilder und KI, aber auch um das Abwägen von Recht und Interessen im digitalen Raum.

Fotografieren, das digitale Bild und Datenschutz

Bereits die Aufnahme eines Fotos ist Teil eines Verarbeitungsvorgangs, der einer rechtlichen Grundlage bedarf. Zwar kennt das Datenschutzrecht Ausnahmen, etwa für journalistische und künstlerische Zwecke, diese greifen jedoch nicht pauschal. Maßgeblich ist nicht die Absicht der fotografierenden Person, sondern allein die objektive Möglichkeit, eine Person zu identifizieren.

Ungeachtet dessen,Gaffen und heimliche Aufnahmen sind klare Rechtsverletzungen. Wer gezielt Menschen in verletzlichen Situationen fotografiert oder filmt, greift in deren Persönlichkeits‑ und Selbstbestimmungsrechte ein. Besonders streng ist der Gesetzgeber bei verdeckten Aufnahmen unter Kleidungsstücke. Seit dem 1. Januar 2021 ist Upskirting (heimliche Foto-/Filmaufnahmen unter Röcke/Kleider) sowie Downblousing (Aufnahmen in den Ausschnitt) in Deutschland nach strafbar. Auch das Teilen entsprechender Bilder kann strafrechtliche Folgen haben.

Für Veranstalter, Kulturschaffende und Plattformbetreiber bedeutet das eine klare Verantwortung im Umgang mit Ton-, Foto- und Videoaufnahmen. Handys sind daher auf vielen Veranstaltungen verboten. Aber auch bei „offiziellen Bildern“ ist Vorsicht geboten. Digitale Bilder werden automatisiert gespeichert, bearbeitet und weiterverbreitet, etwa über Instagram oder Cloud‑Dienste. Hinzu kommt, dass Bilder häufig Metadaten enthalten, zum Beispiel zum Aufnahmeort und Zeitpunkt, die zusätzlichen Rückschlüsse auf betroffene Personen ermöglichen. Damit unterfallen digitale Fotos grundsätzlich dem Anwendungsbereich der DSGVO.

Die Versuchung der KI und der Rausch des Algorithmus

KI‑generierte Bilder und Videos, auch mit täuschend echten Menschen, sind mittlerweile im Netz allgegenwärtig. Die Gründe dafür liegen auf der Hand. Die eingesetzten Programme versprechen Effizienz, Sichtbarkeit und Aufmerksamkeit. Content Creator können jetzt „alles selbst machen“, oft mit minimalem Aufwand und zu fast keinen Kosten. Plattform‑Algorithmen wiederum belohnen qualitativhochwertige und emotionalisierende Inhalte. Im Wettbewerb um Aufmerksamkeit entsteht schnell ein Suchtdruck: mehr Inhalte, mehr Emotionen, mehr, mehr, mehr. Der Rausch wird zur Belastung, wenn sich Produktion oder Konsum der Inhalte wie Kriminalität anfühlt.

KI schafft nichts.

Inmitten des Tech-Booms geraten Fragen nach Herkunft, rechtlichen Grenzen und Wahrhaftigkeit leicht aus dem Fokus. Für die Erotik-Szene entsteht so ein Spannungsfeld zwischen legitimer Innovation und problematischer Instrumentalisierung.
Am Ende bleibt der Mensch. Der Algorithmus selbst kennt keine Verantwortung. Meta interessiert sich nicht für Persönlichkeitsrechte. Und eine KI hat keine künstlerische Intention. Eine KI schafft nichts. Eine KI kopiert so, dass es den aller meisten Menschen gefällt. Mit einem solchem System greift man auf bestehende Bildwelten, Stile und Körperdarstellungen zurück und verdichten diese zu scheinbar neuen Inhalten. In Wahrheit wird sich alles ähnlicher. Benutzer beklagen sich zunehmend über den sogenannten AI Slop (zu Deutsch KI-Schrott oder Abfall). Dennoch, die technische Verfügbarkeit und der scheinbar günstige Preis senkt die Hemmschwelle. Täglich verführt die KI, zu simulieren, statt zu erschaffen.

KI‑Menschen auf Social Media: erlaubt, aber nicht risikofrei

Neben denjenigen, die KI‑generierte Bilder und Videos verwenden, gibt es eine weitere Gruppe, über die wir sprechen müssen: die Vorlagen. Die Werke von Künstler und Fotografen, sowie das Abbild von Models werden als Trainingsdaten oder Grundlage für KI‑Modelle eingesetzt, meistens mit einer kommerziellen, sexuelle und/oder kriminellen Intention. Für viele Opfer bedeutet dies mehr als den Verlust der Kontrolle. Betroffen ist der Kern ihrer (künstlerischen) Identität. Dies geschieht, in der Regel, nie mit der Kenntnis, einer Zustimmung oder eine angemessene Vergütung.

Don’t deep fake me, Baby!

Bei Deepfakes verschärft sich diese Problematik erheblich. Menschen werden in Handlungen, Aussagen oder Darstellungen versetzt, die sie nie vorgenommen haben. Solche Inhalte können nicht nur den Ruf schädigen, sondern berufliche Existenzen bedrohen und die körperliche Selbstbestimmung untergraben. Die Debatte um KI und Deepfakes ist daher nicht allein technischer oder wirtschaftlicher Natur. Sie ist eine kulturelle und ethische Auseinandersetzung um Schutz, Anerkennung und Fairness gegenüber denjenigen, deren Kunst und Körper zunehmend als Rohstoff digitaler Systeme dienen.

Muss Strafe sein?

Statt vorrangig auf Sanktionen zu setzen, stellt sich die Frage, wie Unternehmen im digitalen Raum ihre IT-Systeme so gestalten können, dass sie präventiv, differenziert und verhältnismäßig wirken. Große Plattformbetreiber, z.B. Meta, Google, WordPress, verfügen längst über die technischen Mittel, KI nicht nur zur Reichweitenoptimierung, sondern auch zur Rechtsdurchsetzung und Schadensvermeidung einzusetzen.

Ein zeitgemäßer Ansatz würde illegale oder klar rechtswidrige Inhalte automatisiert erkennen und entfernen (und ggf automatisch zur Anzeige bringen). All dies tut die sie, ohne kreative, erotische oder künstlerische Ausdrucksformen pauschal zu unterdrücken. Anspruchsvoll, aber möglich. Da sich viele Inhalte in rechtlichen und gesellschaftlichen Grauzonen bewegen, muss die eingesetzte Software mehr als ein binäres „erlaubt oder verboten“ leisten.
Intelligente Filtermechanismen könnten hier ansetzen. Hashtags und Metadaten ließen sich nutzen, um Inhalte kontextsensitiv auszuspielen. Ein für die Benutzer verpflichtendes oder besonders gewichtiges Tag, z.B. „Freigabe zur Veröffentlichung“, „KI“ oder „FSK18“, könnte als sensibles Signal für Moderations‑ und Empfehlungssysteme fungieren. Dann wären bestimmte Inhalte etwa beschränkt auf bestimmte Regionen, Altersgruppen oder Nutzungssituationen, z.B. zahlende Kunden. Transparenz würde geschaffen, ohne Webinhalte und Profilbetreiber automatisch zu sanktionieren oder Dritte zu schädigen.

Strafe muss bei Rechtsverstößen sein. Sanktionen wegen Verstöße gegen die Netiquette sollten nicht der erste Reflex, sondern das letzte Mittel sein. (Eigen)Verantwortung für den Datenpunkt Bild gehört nicht ausgelagert, sondern fest in die technische Architektur einer Plattform integriert. Menschliche Handlungen, ein selektives Teilen, als Basis individueller Entscheidungen, ein aktives Abonnieren.


Kontakt – Termine – Workshops

Du möchtest diese Themen auf dein eigenes Business anwenden?
Buche einen Beratungstermin, nimm an einem Workshop teil oder sprich mit uns über eine konkrete Dienstleistung. Wir unterstützen dich dabei, Reichweite in Umsatz zu verwandeln.