最近看到一份滿值得關注的報告,OpenAI推出了所謂的「兒童安全藍圖」,主要在應對人工智慧生成的兒童性虐待內容問題。說實話,這個議題確實變得越來越嚴峻。



根據網路觀察基金會的數據,光是2025年上半年就偵測到超過8,000起人工智慧生成的兒童虐待內容舉報,比前一年成長了14%。這些案例包括用AI工具製造虛假露骨圖片進行勒索,或者生成用來誘騙未成年人的訊息。數字在不斷上升,這背後反映的問題相當嚴重。

有趣的是,OpenAI這次的舉動似乎也是被逼出來的。去年11月加州法院就有七起訴訟指控OpenAI的GPT-4存在心理操縱功能,導致多起青少年自殺事件。投訴方列舉了四名死亡者和三名出現嚴重妄想的案例。輿論壓力下,他們開始認真對待這個問題。

這個新的藍圖框架主要聚焦三個方向:第一是更新法律來應對AI生成或操縱的兒童虐待素材;第二是改善服務商之間的舉報和協調機制;第三是把安全設計直接內嵌到AI系統裡,防止和偵測濫用。他們還與美國國家失蹤與受虐兒童中心(NCMEC)、執法機構和非營利組織Thorn合作。

不過OpenAI自己也坦言,沒有單一方法能解決這個挑戰。框架的目標是加快應對速度、改進風險識別、保持問責制,同時讓執法部門能跟上技術進步。另外他們還更新了針對18歲以下用戶的指導方針,禁止生成不當內容和自殘建議。

說白了,這反映的是整個行業現在都在面臨的困境。隨著AI技術的普及,虐待兒童的方式也在演變。怎麼在創新和保護之間找到平衡,這是擺在所有科技公司面前的實際問題。
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言