Überparteilicher Gesetzentwurf zielt darauf ab, den Missbrauch von KI-Deepfakes durch Wasserzeichen und Herkunft zu bekämpfen

Als Forscher mit einem Hintergrund in Technologie und Ethik glaube ich, dass der COPIED Act ein entscheidender Schritt vorwärts bei der Bewältigung des wachsenden Problems von KI-generierten Deepfakes ist. Die Möglichkeit, mithilfe von KI überzeugende Fake-Inhalte zu erstellen, wirft erhebliche ethische Bedenken auf, insbesondere im Hinblick auf Einwilligung und Falschdarstellung.


Ein Gesetzentwurf, der von einem Team von Senatsabgeordneten beider politischer Parteien vorgeschlagen wurde, zielt darauf ab, das Problem von KI-generierten Deepfakes anzugehen, indem gefordert wird, dass solche Inhalte mit markanten Wasserzeichen gekennzeichnet werden.

Ein von den Senatoren Maria Cantwell (D-WA), Marsha Blackburn (R-TN) und Martin Heinrich (D-NM) vorgelegter Gesetzesvorschlag plädiert für einen einheitlichen Ansatz zur Wasserzeichenmarkierung digital produzierter Inhalte mithilfe künstlicher Intelligenz.

Der Content Origin Protection and Integrity from Edited and Deepfaked Media Act, kurz COPIED, zielt darauf ab, die Rechte der Urheber zu stärken und Vorschriften für die Arten von Inhalten einzuführen, die zum Training künstlicher Intelligenz (KI) verwendet werden.

Nach Ansicht von Cantwell zielt die vorgeschlagene Gesetzgebung darauf ab, „wesentliche Klarheit“ in Bezug auf KI-generierte Inhalte zu schaffen und es „Schöpfern wie lokalen Journalisten, Künstlern und Musikern“ zu ermöglichen, die Kontrolle über ihre Arbeit zurückzugewinnen.

Sollte die Gesetzgebung verabschiedet werden, wären Ersteller von KI-Inhalten wie OpenAI verpflichtet, Informationen über die Quelle des generierten Materials in ihre Dienste aufzunehmen. Diese Anforderung muss in einem Format dargestellt werden, das für Maschinen leicht verständlich ist und somit vor Manipulation oder Löschung durch fortschrittliche KI-Techniken geschützt ist.

Die Durchsetzung des COPIED Act wird von der Federal Trade Commission (FTC) übernommen. Die FTC wird Verstöße im Einklang mit ihrem bestehenden Zuständigkeitsbereich gemäß dem FTC-Gesetz als gleichwertig mit unlauteren oder irreführenden Praktiken einstufen.

Als Datenanalyst habe ich festgestellt, dass es mit dem Aufkommen der künstlichen Intelligenz (KI) intensive Diskussionen über die ethischen Auswirkungen dieser Technologie gab. Insbesondere seine Fähigkeit, riesige Mengen an Informationen aus dem Internet zu sammeln, hat Anlass zur Sorge gegeben.

Als Analyst fiel mir auf, dass die Entscheidung von Microsoft, sich keine Sitze im Vorstand von OpenAI zu sichern, Anlass zur Sorge gab. Dieser Schritt deutete auf eine mögliche Verschiebung ihrer strategischen Zusammenarbeit oder Partnerschaft mit dem Forschungslabor für künstliche Intelligenz hin.

Als Forscher, der die Auswirkungen künstlicher Intelligenz (KI) auf die Gesellschaft untersucht, bin ich auf eine besorgniserregende Entwicklung gestoßen: Böswillige Akteure haben jetzt die Möglichkeit, ohne deren Zustimmung Deepfakes von jeder Person zu erstellen, auch von solchen in kreativen Bereichen. Diese Deepfakes können genutzt werden, um von gefälschten Inhalten zu profitieren, den Ruf zu schädigen und Schaden anzurichten.

Als Analyst habe ich einen alarmierenden Zusammenhang zwischen der Einführung des Gesetzesvorschlags und einem atemberaubenden Anstieg der Betrugsfälle und Betrügereien im Zusammenhang mit Deepfakes um 245 % festgestellt. Dem neuesten Bericht von Bitget zufolge werden diese betrügerischen Machenschaften bis zum Jahr 2025 voraussichtlich finanzielle Verluste in Höhe von etwa 10 Milliarden US-Dollar verursachen.

In der dynamischen Welt der Kryptowährungen bin ich auf ein besorgniserregendes Problem gestoßen. Betrüger nutzen fortschrittliche Technologie der künstlichen Intelligenz (KI), um die Identität einflussreicher Persönlichkeiten wie Elon Musk und Vitalik Buterin nachzuahmen. Ihr Ziel ist es, ahnungslose Benutzer zu täuschen, indem sie betrügerische Nachrichten oder Links versenden, in denen sie häufig zu Investitionen in nicht existierende Projekte oder Kryptowährungen auffordern. Überprüfen Sie stets jede vermeintliche Kommunikation dieser Personen, insbesondere wenn es sich um Finanztransaktionen handelt. Bleiben Sie wachsam und schützen Sie Ihre Krypto-Assets.

Im Juni 2024 erlitt ein Benutzer einer OKX-Kryptobörse erhebliche Verluste von über 2 Millionen US-Dollar, weil Angreifer die Sicherheit der Plattform durch Deepfake-Videos ausnutzten, in denen das Opfer betrügerisch dargestellt wurde. Vor diesem Vorfall gingen die Behörden Hongkongs im Mai 2024 gegen einen betrügerischen Plan vor, der das Image von Elon Musk manipulierte, um potenzielle Investoren in die Irre zu führen.

Als Forscher, der Technologietrends untersucht, bin ich auf Kritik von Michael Marcotte, dem Gründer des National Cybersecurity Center (NCC), an Google wegen unzureichender Schutzmaßnahmen gegen Deep Fakes, die speziell auf Kryptowährungen abzielen, gestoßen.

Weiterlesen

2024-07-12 12:12