
Forschungsprojekt FAKE-ID
FAKE-ID: Kunst
In der Welt der Künste und der Populärkultur (etwa im Film) haben Deepfakes bereits ihre Spuren hinterlassen und viel Aufmerksamkeit erzeugt. Das kreative Potenzial der Deepfakes wird beispielsweise genutzt, um mit visuellen Darstellungen und Attributen zu spielen, und das Auftreten von Personen und Charakteren zu verändern. Aber auch im Audiobereich wird KI eingesetzt. Beispielsweise in der Musik oder auch um Schauspieler*innen auf authentischere Weisen Fremdsprachen sprechen zu lassen. Dadurch wird sichtbar, wie Deepfakes unsere Vorstellungen von der Realität beeinflussen.
Die endgültige Fassung der KI-Verordnung (EU) 2024/1689, die in Art. 50 Abs. 4 eine Kennzeichnungspflicht für Deepfakes im Internet vorsieht, sieht jedoch eine eingeschränkte Anwendung im kreativen Kontext vor, da die Kennzeichnung die Wahrnehmung des Inhalts nicht beeinträchtigen muss: „Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die in diesem Absatz festgelegten Transparenzpflichten darauf, das Vorhandensein solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.“ Das wird Behörden und Gerichte vor die Aufgabe stellen, die mutmaßliche Verletzung öffentlicher Rechte und die Rechte anderer Personen durch Deepfakes in einen Ausgleich zu bringen, da Deepfake-Technologien es zunehmend erschwert, den tatsächlichen Sachverhalt zu ermitteln und damit Realität von Fiktion zu unterscheiden. Ein weiterer entscheidender Aspekt, der Deepfakes besonders interessant macht, ist die Frage des Trainings von KI-Systemen, die zu ihrer Erzeugung und Verbreitung verwendet werden. Dazu gehören auch grundlegende Fragen bezüglich der geistigen Eigentumsrechte, die in diesen Trainingsdatensätzen verwendet werden (Erwägungsgründe 104-109). Interessant in dieser Hinsicht ist Art. 53 Abs. 1 EU-KI-VO, der Verpflichtungen für die Anbieter von KI-Modellen mit allgemeinem Verwendungszweck vorsieht, darunter u.a. die Verpflichtung, eine Strategie zur Einhaltung des Urheberrechts der Europäische Union zu konzipieren. Auch die grundsätzliche Frage, welche Personen für die Ergebnisse eines KI-Systems verantwortlich sind (die Entwickler*in, Anbieter*in bzw. Verkäufer*in oder die Anwender*in?) oder ob den KI-Systemen eine eigene Rechtspersönlichkeit zuerkannt werden sollte, wird uns in Zukunft vermehrt beschäftigen.
DEEPFAKE | THEMEN
PUBLIKATIONEN
-
„Human(s) in the loop(s): On the use of AI in German law enforcement“ – ein Beitrag von Dr. Lou Brandner (IZEW) und Anna Louban (HWR) auf Basis von Daten aus den BMBF-finanzierten Projekte FAKE-ID, VIKING und PEGASUS
Weiterlesen: „Human(s) in the loop(s): On the use of AI in German law enforcement“ – ein Beitrag von Dr. Lou Brandner (IZEW) und Anna Louban (HWR) auf Basis von Daten aus den BMBF-finanzierten Projekte FAKE-ID, VIKING und PEGASUS
-
Aden/Schönrock/Kleemann/Tahraoui (2023): Faire globale Daten-Governance im Sicherheitsbereich?
Weiterlesen: Aden/Schönrock/Kleemann/Tahraoui (2023): Faire globale Daten-Governance im Sicherheitsbereich?
-
Defending Informational Sovereignty by Detecting Deepfakes:Risks and Opportunities of an AI-Based Detector for Deepfake-Based Disinformation and Illegal Activities (de)
Weiterlesen: Defending Informational Sovereignty by Detecting Deepfakes:Risks and Opportunities of an AI-Based Detector for Deepfake-Based Disinformation and Illegal Activities (de)
KONTAKT
Anna Louban
Hochschule für Wirtschaft und Recht – FB 5
Alt-Friedrichsfelde 60
10315 Berlin
e-Mail: fake-id-projekt@hwr-berlin.de
Telefon: +49 30 30877 2695

