Mit dem Ziel, der Zunahme von mithilfe von KI ermöglichten sexuellen Übergriffen auf Kinder zu begegnen, veröffentlichte OpenAI am Mittwoch einen politischen Leitfaden mit neuen Sicherheitsmaßnahmen, die die Branche ergreifen kann, um die Nutzung von KI bei der Erstellung von Material für sexuelle Kindesmisshandlung einzudämmen. In dem Rahmen führt OpenAI rechtliche, operative und technische Maßnahmen auf, die darauf abzielen, den Schutz vor durch KI ermöglichtem Missbrauch zu stärken und die Koordination zwischen Technologieunternehmen und Ermittlern zu verbessern. „Sexuelle Ausbeutung von Kindern ist eine der dringendsten Herausforderungen des digitalen Zeitalters“, schrieb das Unternehmen. „KI verändert sich rasch, sowohl wie sich diese Schäden in der Branche zeigen, als auch wie sie im großen Maßstab angegangen werden können.“
OpenAI erklärte, der Vorschlag fließe in Feedback von Organisationen ein, die im Bereich Kinderschutz und Online-Sicherheit arbeiten, darunter das National Center for Missing and Exploited Children sowie die Attorney General Alliance und ihre KI-Arbeitsgruppe. „Generative KI beschleunigt das Verbrechen der Online-sexuellen Ausbeutung von Kindern auf zutiefst beunruhigende Weise – senkt Hürden, erhöht das Ausmaß und ermöglicht neue Formen von Schaden“, sagte Michelle DeLaune, Präsidentin & CEO des National Center for Missing & Exploited Children, in einer Erklärung. „Gleichzeitig ist das National Center for Missing & Exploited Children ermutigt zu sehen, dass Unternehmen wie OpenAI darüber nachdenken, wie diese Tools verantwortungsvoller gestaltet werden können – mit von Anfang an eingebauten Schutzvorkehrungen.“ OpenAI sagte, der Rahmen kombiniere rechtliche Standards, Branchen-Meldesysteme und technische Schutzvorkehrungen innerhalb von KI-Modellen. Das Unternehmen sagte, diese Maßnahmen sollen dabei helfen, Ausbeutungsrisiken früher zu erkennen und die Verantwortlichkeit über Online-Plattformen hinweg zu verbessern.
Der Leitfaden nennt Bereiche für das Handeln, darunter die Aktualisierung von Gesetzen, um KI-generiertes oder verändertes Material für sexuelle Kindesmisshandlung zu adressieren, die Verbesserung, wie Online-Anbieter Missbrauchssignale melden und mit Ermittlern koordinieren, sowie den Aufbau von Schutzvorkehrungen in KI-Systemen, die darauf ausgelegt sind, Fehlanwendungen zu verhindern. „Keine einzelne Maßnahme kann diese Herausforderung allein bewältigen“, schrieb das Unternehmen. „Dieser Rahmen bringt rechtliche, operative und technische Ansätze zusammen, um Risiken besser zu erkennen, Reaktionen zu beschleunigen und Verantwortlichkeit zu unterstützen – und dabei sicherzustellen, dass die Durchsetzungsbehörden stark bleiben, während sich die Technologie weiterentwickelt.“ Der Leitfaden kommt zu einer Zeit, in der Fürsprecher für die Kindersicherheit Bedenken geäußert haben, dass generative KI-Systeme, die realistische Bilder erzeugen können, genutzt werden könnten, um manipulierte oder synthetische Darstellungen von Minderjährigen zu erstellen. Im Februar hatte UNICEF die Regierungen der Welt dazu aufgerufen, Gesetze zu verabschieden, die KI-generiertes Material für Kindesmisshandlung unter Strafe stellen. Im Januar startete die Europäische Kommission eine formelle Untersuchung der Frage, ob X, das früher als Twitter bekannt war, EU-Digitalregeln verletzt hat, indem es nicht verhindert hat, dass das native KI-Modell der Plattform, Grok, illegale Inhalte erzeugt; auch Regulierer im Vereinigten Königreich und in Australien haben zudem Untersuchungen eröffnet. Unter Hinweis darauf, dass allein Gesetze die Geißel von KI-generiertem Missbrauchsmaterial nicht stoppen werden, sagte OpenAI, es werde stärkere branchenweite Standards brauchen, wenn KI-Systeme leistungsfähiger werden. „Indem dieser Rahmen Ausbeuchtungsversuche früher unterbricht, die Qualität der an Strafverfolgungsbehörden gesendeten Signale verbessert und die Verantwortlichkeit im gesamten Ökosystem stärkt, zielt er darauf ab, Schaden zu verhindern, bevor er geschieht, und schnellere Schutzmaßnahmen für Kinder sicherzustellen, wenn Risiken auftreten“, sagte OpenAI.