Das KI-Gesetz und die Videobranche - was Sie als Produzent oder Vermarkter wissen müssen
Das KI-Gesetz ist das erste Gesetz in der Europäischen Union, das klar definiert, wie künstliche Intelligenz eingesetzt werden kann (und wie nicht). Es wird am 1. August 2024 in Kraft treten und für jeden gelten, der KI bei der Erstellung von Inhalten einsetzt - auch in der Videobranche.
Kurz gesagt: Wenn Sie Videos mit Hilfe von KI erstellen, bearbeiten, Werbung personalisieren oder Deepfakes verwenden, gilt diese Verordnung für Sie.
In diesem Artikel erklären wir:
Welches sind die Risikostufen nach dem AI-Gesetz?
Welche Anwendungen von KI in Videos sind legal und welche sind verboten,
welche Verantwortung die Urheber, Vermarkter und Agenturen haben.
Was genau ist das KI-Gesetz?
Dabei handelt es sich um eine neue Rechtsvorschrift der Europäischen Union, die festlegt, wie Werkzeuge der künstlichen Intelligenz gestaltet und eingesetzt werden sollten - damit sie sicher und transparent sind und die Rechte der Menschen nicht verletzen. Für die Kreativbranche, insbesondere die Videobranche, bedeutet dies besondere Anforderungen.
Den vollständigen Wortlaut des Gesetzes finden Sie hier:
👉 https://eur-lex.europa.eu/eli/reg/2024/1689/oj
Wie unterteilt das KI-Gesetz KI-Systeme?
Die Union führt vier Risikostufen ein. Die Stufe bestimmt, was erlaubt ist und was nicht - und welche Verantwortung Sie als Ersteller oder Vermarkter haben.
1. verboten (unannehmbares Risiko)
Einige Anwendungen der KI sind völlig verboten. Dazu gehören:
Echtzeit-Gesichtserkennung auf der Straße (sofern sie nicht von der Polizei mit einem Haftbefehl durchgeführt wird),
Deepfakes, die nicht gekennzeichnet sind und irreführend sein können (z. B. politisch),
KI erkennt Emotionen in Schulen oder Unternehmen,
Manipulation der Wahrnehmung von Kindern in Werbekampagnen.
Was bedeutet das für die Videobranche?
Es ist nicht möglich, ungetaggte Deepfakes zu erstellen, Personen zu imitieren, die Emotionen von Kindern zu manipulieren oder biometrische Daten ohne eindeutige Zustimmung zu verwenden.
2. hohes Risiko
Hier geht es um Systeme, die sich auf das Leben oder die Rechte einer Person auswirken können - zum Beispiel:
KI zur Analyse von Bewerbern auf der Grundlage von Videomaterial (z. B. Mimik, Tonfall),
Systeme zur Bewertung von Schülern in Online-Kursen,
Überwachung von Mitarbeitern auf der Grundlage von Bildanalysen.
Ihre Pflichten:
Wenn Sie eine solche KI einsetzen, müssen Sie Aufzeichnungen führen, Tests durchführen, für menschliche Aufsicht sorgen und das System an das EU-Register melden.
3 Begrenztes Risiko
Dies sind beliebte Instrumente, die nicht über eine Person entscheiden, aber ihre Entscheidungen beeinflussen können. Beispiele:
Video-Chatbots,
KI-Moderatoren oder Voiceover,
personalisierte Videowerbung,
deepfakes als Fälschung gekennzeichnet.
Anforderungen?
Sie müssen den Nutzer deutlich darauf hinweisen, dass der betreffende Inhalt von KI generiert wurde. Versuchen Sie nicht, dies zu verbergen.
4 Geringes Risiko
Das sind Werkzeuge, die keinen Papierkram erfordern. Zum Beispiel:
AI für die Videobearbeitung,
automatische Untertitelung und Übersetzung,
Algorithmen zur Empfehlung von Inhalten (z. B. Shorts, TikTok, Reels).
Was bedeutet das für die Praxis?
Wenn Sie ein Video erstellen:
Kennzeichnen Sie alle KI-generierten Inhalte - auch wenn es sich nur um eine Stimme oder ein Gesicht handelt.
Verwenden Sie keine ungetaggten Deepfakes - dies könnte illegal sein.
Wenn Ihr Instrument Personen analysiert (z. B. bei der Personalbeschaffung), bereiten Sie die Dokumentation vor und überprüfen Sie die Einhaltung der Vorschriften.
Wenn Sie Videomarketing betreiben:
Vergewissern Sie sich, dass die Kampagnen seriös sind - insbesondere diejenigen, die sich an Kinder richten.
Arbeiten Sie nur mit Tools, die dem AI-Gesetz entsprechen (d.h. Transparenz, Dokumentation und Wegweiser).
Wenn Sie eine Agentur oder ein Produktionsunternehmen sind:
Fragen Sie die Anbieter von KI-Tools, ob ihre Lösungen dem KI-Gesetz entsprechen.
Informieren Sie Ihre Kunden - Sie sind für die Rechtmäßigkeit der von Ihnen veröffentlichten Inhalte verantwortlich.
Vorbereitung des Teams auf mögliche Prüfungen oder Fragen von Kunden.
Beispiele für KI-Anwendungen im Videobereich nach Risikograd:
| Anmeldung | Höhe des Risikos | Was Sie tun müssen |
|---|---|---|
| Deepfake mit Politiker unmarkiert | Verbotene | Es ist nicht erlaubt |
| Analyse der Leistungen des Bewerbers bei der Einstellung | Hoch | Dokumentation, Überwachung |
| AI-Moderator in der Werbung | Begrenzt | Eindeutige Kennzeichnung |
| Videobearbeitung durch AI | Minimum | Keine Anforderungen |
Wie kann man sich vorbereiten?
Finden Sie heraus, wo Sie AI in Ihrem kreativen Prozess einsetzen.
Bewerten Sie, in welche Kategorie das Werkzeug fällt.
Wenn nötig - markieren Sie den Inhalt, sammeln Sie Dokumentation oder ändern Sie das Werkzeug.
Wählen Sie zuverlässige Lieferanten, die die Regeln kennen.
Legen Sie interne Regeln für die Arbeit mit KI fest - bevor jemand nach der Einhaltung von Rechtsvorschriften fragt.
Zusammenfassung
Das KI-Gesetz ist nicht nur eine neue Verpflichtung, sondern auch ein neuer Standard.
Es regelt, was bisher oft "auf eigene Faust" gemacht wurde - nämlich den Einsatz von KI bei der Erstellung von Inhalten.
Für die Videobranche bedeutet dies mehr Rechenschaftspflicht, Transparenz und manchmal auch einfache Maßnahmen - wie das Hinzufügen des Hinweises "KI-generiert".
Es ist besser, diese Grundsätze jetzt umzusetzen, als sie später zu riskieren. Es ist eine Investition in das Vertrauen Ihres Publikums und Ihrer Kunden.
