OpenAI veröffentlicht einen Blueprint zur Kindersicherheit, um Ausbeutung durch KI-gestützte Systeme zu bekämpfen

Decrypt

Kurz gesagt

  • OpenAI hat seinen „Child Safety Blueprint“ veröffentlicht, der auf mithilfe von KI ermöglichte sexuelle Ausbeutung von Kindern eingeht.
  • Der Rahmen konzentriert sich auf rechtliche Reformen, eine stärkere Koordination bei der Meldung sowie Leitplanken, die in KI-Systeme eingebaut sind.
  • Der Vorschlag wurde unter Mitwirkung von Organisationen zum Kinderschutz, von Generalstaatsanwälten und von gemeinnützigen Organisationen entwickelt.

Mit dem Ziel, der Zunahme von mithilfe von KI ermöglichten sexuellen Übergriffen auf Kinder zu begegnen, veröffentlichte OpenAI am Mittwoch einen politischen Leitfaden mit neuen Sicherheitsmaßnahmen, die die Branche ergreifen kann, um die Nutzung von KI bei der Erstellung von Material für sexuelle Kindesmisshandlung einzudämmen. In dem Rahmen führt OpenAI rechtliche, operative und technische Maßnahmen auf, die darauf abzielen, den Schutz vor durch KI ermöglichtem Missbrauch zu stärken und die Koordination zwischen Technologieunternehmen und Ermittlern zu verbessern. „Sexuelle Ausbeutung von Kindern ist eine der dringendsten Herausforderungen des digitalen Zeitalters“, schrieb das Unternehmen. „KI verändert sich rasch, sowohl wie sich diese Schäden in der Branche zeigen, als auch wie sie im großen Maßstab angegangen werden können.“

OpenAI erklärte, der Vorschlag fließe in Feedback von Organisationen ein, die im Bereich Kinderschutz und Online-Sicherheit arbeiten, darunter das National Center for Missing and Exploited Children sowie die Attorney General Alliance und ihre KI-Arbeitsgruppe. „Generative KI beschleunigt das Verbrechen der Online-sexuellen Ausbeutung von Kindern auf zutiefst beunruhigende Weise – senkt Hürden, erhöht das Ausmaß und ermöglicht neue Formen von Schaden“, sagte Michelle DeLaune, Präsidentin & CEO des National Center for Missing & Exploited Children, in einer Erklärung. „Gleichzeitig ist das National Center for Missing & Exploited Children ermutigt zu sehen, dass Unternehmen wie OpenAI darüber nachdenken, wie diese Tools verantwortungsvoller gestaltet werden können – mit von Anfang an eingebauten Schutzvorkehrungen.“  OpenAI sagte, der Rahmen kombiniere rechtliche Standards, Branchen-Meldesysteme und technische Schutzvorkehrungen innerhalb von KI-Modellen. Das Unternehmen sagte, diese Maßnahmen sollen dabei helfen, Ausbeutungsrisiken früher zu erkennen und die Verantwortlichkeit über Online-Plattformen hinweg zu verbessern.

Der Leitfaden nennt Bereiche für das Handeln, darunter die Aktualisierung von Gesetzen, um KI-generiertes oder verändertes Material für sexuelle Kindesmisshandlung zu adressieren, die Verbesserung, wie Online-Anbieter Missbrauchssignale melden und mit Ermittlern koordinieren, sowie den Aufbau von Schutzvorkehrungen in KI-Systemen, die darauf ausgelegt sind, Fehlanwendungen zu verhindern. „Keine einzelne Maßnahme kann diese Herausforderung allein bewältigen“, schrieb das Unternehmen. „Dieser Rahmen bringt rechtliche, operative und technische Ansätze zusammen, um Risiken besser zu erkennen, Reaktionen zu beschleunigen und Verantwortlichkeit zu unterstützen – und dabei sicherzustellen, dass die Durchsetzungsbehörden stark bleiben, während sich die Technologie weiterentwickelt.“ Der Leitfaden kommt zu einer Zeit, in der Fürsprecher für die Kindersicherheit Bedenken geäußert haben, dass generative KI-Systeme, die realistische Bilder erzeugen können, genutzt werden könnten, um manipulierte oder synthetische Darstellungen von Minderjährigen zu erstellen. Im Februar hatte UNICEF die Regierungen der Welt dazu aufgerufen, Gesetze zu verabschieden, die KI-generiertes Material für Kindesmisshandlung unter Strafe stellen. Im Januar startete die Europäische Kommission eine formelle Untersuchung der Frage, ob X, das früher als Twitter bekannt war, EU-Digitalregeln verletzt hat, indem es nicht verhindert hat, dass das native KI-Modell der Plattform, Grok, illegale Inhalte erzeugt; auch Regulierer im Vereinigten Königreich und in Australien haben zudem Untersuchungen eröffnet. Unter Hinweis darauf, dass allein Gesetze die Geißel von KI-generiertem Missbrauchsmaterial nicht stoppen werden, sagte OpenAI, es werde stärkere branchenweite Standards brauchen, wenn KI-Systeme leistungsfähiger werden. „Indem dieser Rahmen Ausbeuchtungsversuche früher unterbricht, die Qualität der an Strafverfolgungsbehörden gesendeten Signale verbessert und die Verantwortlichkeit im gesamten Ökosystem stärkt, zielt er darauf ab, Schaden zu verhindern, bevor er geschieht, und schnellere Schutzmaßnahmen für Kinder sicherzustellen, wenn Risiken auftreten“, sagte OpenAI.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare