Порядок управління службами цифрових віртуальних людей для громадського обговорення: «Людина в центрі уваги», визначення меж, фіксація напрямку

Написано: Чжан Фенг

  1. Технічний бум і затримки у регулюванні: де межі сервісів цифрових віртуальних людей?

Коли AI-управлявані віртуальні ведучі працюють цілодобово, коли «цифрові державні службовці» терпляче відповідають на запитання у вікнах державних послуг, коли у галузі медичної популяризації з’являються невтомні «AI-лікарі», ми стаємо свідками нової соціальної картини, глибоко впровадженої цифровими віртуальними людьми. Завдяки своїм низьким витратам, високій взаємодії, високій ефективності та цілодобовому обслуговуванню, цифрові віртуальні особи швидко стають ключовим інструментом для стимулювання розвитку інтелектуальної економіки. Від електронної комерції та туристичної промоції до медичної популяризації та державних консультацій — їх застосування розширюється з неймовірною широтою і глибиною.

Однак, стрімкий технічний прогрес часто випереджає створення правил. Коли віртуальні образи можуть бути настільки реалістичними, що їх важко відрізнити від справжніх, коли діалоги на основі AI можуть містити упередження, коли самовдосконалювані агенти (Agent) ведуть себе непередбачувано, виникає низка гострих питань: де саме межі сервісів цифрових віртуальних людей? Хто несе відповідальність за їх поведінку? Як забезпечити, щоб розвиток технологій не відхилявся від принципу «людина-центр» у прагненні до ефективності та інновацій? Це не лише технічні питання, а й питання довіри суспільства, етичних меж і довгострокового розвитку. Останнім часом Національне управління інтернету та інформації опублікувало «Положення про управління інформаційними послугами цифрових віртуальних людей (проект для громадського обговорення)» (далі — «Положення»), яке є концентрованою відповіддю на ці актуальні питання.

  1. Множинні ризики і потреба у системних нормах і «етичному напрямку» технологій

Причина, чому потрібно чітко визначити межі сервісів цифрових віртуальних людей, полягає у багатьох ризиках і викликах, що проявляються у процесі їх розвитку.

Перш за все — ризики безпеки та етики. Технології глибокого синтезу значно знижують бар’єри для підробки особистості, поширення фальшивої інформації та емоційного шахрайства, що може порушити права окремих осіб, дестабілізувати суспільний порядок і навіть загрожувати національній безпеці.

По-друге — ризик невизначеності відповідальності. Дії цифрових віртуальних особистостей керуються алгоритмами, і відповідальність за них лежить на їхніх розробниках, операторах, користувачах — ланцюг відповідальності є складним. У разі проблем легко потрапити у «чорний ящик алгоритмів» і вакуум відповідальності.

Ще один ризик — цифровий розрив і закріплення упереджень. Якщо дані для тренування алгоритмів містять упередження, цифрові віртуальні особи можуть несвідомо посилювати існуючі соціальні стереотипи або створювати нові форми дискримінації.

Ще глибше — з розвитком передових технологій, таких як протокол автономної еволюції Rotifer, здатні до самонавчання та еволюції агенти можуть проявляти поведінку, що виходить за межі запланованих цілей, що створює невизначеність щодо їх довгострокового впливу на суспільство.

Ці ризики не існують ізольовано, вони взаємопов’язані і спрямовані до центральної суперечності: величезний потенціал технологічного прогресу і затримки у регулюванні. Тому прийняття «Положення» — це не лише реакція на конкретні порушення, а й закріплення логіки здорового розвитку цифрової економіки, а також систематизація принципів «людина-центр» і «інтелектуальна доброчесність».

  1. Повний контроль процесу і відповідальність — створення «людина-центр» регуляторної рамки

Щоб протистояти цим викликам, «Положення» пропонує систему управління, орієнтовану на «повний контроль процесу» і «прозору відповідальність». Основні підходи можна підсумувати так: «встановити межі, визначити відповідальних, посилити нагляд, сприяти доброчесності».

Перш за все — чітко окреслити непереборні межі безпеки і етики. «Положення» детально забороняє використання цифрових віртуальних особистостей для дій, що включають, але не обмежуються, загрозами національній безпеці, шкодою для громадських інтересів, порушенням прав інших, поширенням фальшивих новин, дестабілізацією економіки і суспільства. Це встановлює чіткі «червоні лінії» для всіх учасників ринку.

По-друге — закріпити і прослідковувати відповідальність різних суб’єктів. «Положення» визначає обов’язки для провайдерів сервісів, технічної підтримки, контент-мейкерів і користувачів, вимагає проходження реєстрації, маркування, перевірки контенту, забезпечення безпеки даних і швидкого реагування — і таким чином закриває ланцюг відповідальності, роблячи його прозорим і відстежуваним.

Третє — наголосити на «людина-центр» підході. Це означає, що дизайн, розробка і застосування цифрових віртуальних особистостей мають поважати суспільні цінності і етичні норми, захищати право користувачів на інформацію і вибір, уникати зловживання даними і надмірної персоналізації, щоб технології служили всебічному розвитку людини.

Четверте — підтримувати «етичний напрямок» у технологіях. «Положення» не обмежує розвиток технологій, а навпаки, створює безпечну зону для відповідального інноваційного розвитку, сприяє співпраці науки, виробництва і досліджень, спрямованій на застосування, що відповідає етичним стандартам і підвищує добробут. Це дозволяє перетворити «людина-центр» з абстрактної ідеї у конкретні правила і практики.

  1. Короткострокові труднощі і довгострокові переваги для інтелектуальної економіки

Запровадження і реалізація «Положення» матимуть глибокий вплив на галузь цифрових віртуальних особистостей і всю екосистему інтелектуальної економіки.

У короткостроковій перспективі галузь може пережити «біль у процесі адаптації»: зростання витрат на відповідність вимогам, обмеження деяких «диких» практик. Компанії будуть змушені інвестувати у технологічне оновлення, внутрішній контроль і реєстрацію, деякі застосунки, що порушують правила, змушені будуть змінитися або зникнути.

Однак, у довгостроковій перспективі, ці норми принесуть значні переваги. По-перше, вони підвищать довіру до галузі і суспільну прийнятність. Чіткі правила зменшують побоювання з боку громадськості щодо зловживань і допомагають формувати довіру користувачів — важливу передумову масштабного розвитку. По-друге, вони сприятимуть покращенню конкуренції, очищенню ринку від недобросовісних гравців і спрямуванню ресурсів у справді технологічно сильні та відповідальні компанії. По-третє, вони дадуть інвесторам і дослідникам ясний орієнтир для вкладень у сфери, що відповідають політиці і мають довгострокову суспільну цінність, наприклад, освіту, охорону здоров’я, пенсійне забезпечення, культурну спадщину.

Загалом, сформована регуляторна база сприятиме створенню «збалансованої і стійкої» екосистеми цифрових віртуальних особистостей, яка стане міцною основою для подальшого розвитку «штучного інтелекту +», підтримуючи цифровізацію традиційних галузей і формування нових форм інтелектуальної економіки. Це також важливий крок у системній роботі Китаю у сфері управління штучним інтелектом і внесок у глобальний пошук балансу між інноваціями і регулюванням.

  1. Впровадження правил і нові виклики через технологічний розвиток

Хоча «Положення» закладає базовий регуляторний каркас, у процесі його реалізації виникають проблеми, пов’язані з інтеграцією технологій, визначенням відповідальності, відсутністю стандартів і швидким розвитком технологій.

Перший ризик — складність регулювання технологій. Технології цифрових віртуальних особистостей поєднують AI, графічну обробку, обробку природної мови, блокчейн, квантові мережі та інші передові напрямки. Їх поведінка динамічна і складна. Як ефективно виявляти порушення і не заважати інноваціям — це виклик для регуляторних технологій (RegTech).

Другий — труднощі у визначенні відповідальності. Наприклад, коли цифровий віртуальний персонаж, створений на базі відкритих технологій, спричиняє проблему, як правильно розподілити відповідальність між відкритим співтовариством, налаштувачами моделей, інтеграторами і операторами?

Третій — відсутність єдиних стандартів. Від ідентифікації особистості, етичної оцінки, прозорості алгоритмів до тестування продуктивності — потрібні єдині і деталізовані стандарти, щоб уникнути різних підходів у регіонах і забезпечити справедливість.

Четвертий — найглибший ризик — швидкий розвиток технологій, особливо автономних агентів, багатоголових систем і потенційного поєднання з квантовими обчисленнями. Це створює виклики для передбачуваності і гнучкості правил. Потрібен баланс між гнучкістю і стабільністю, але знайти його складно. Ці ризики нагадують, що регулювання — це динамічний процес, і він не може бути завершеним раз і назавжди.

  1. Співпраця регулювання і технологій: шлях до «відповідального інтелектуального розвитку»

Майбутнє — це глибока взаємодія між управлінням і технологіями.

По-перше, регулювання стане все більш «технічною» і «розумною». Використання AI для моніторингу, створення платформ для виявлення глибоких підробок, системи відстеження поведінки цифрових віртуальних особистостей — все це реалізовуватиметься за допомогою технологій. Блокчейн може забезпечити незмінність і прозорість ідентифікації та історії дій.

По-друге, відкритий код і екосистеми стануть ключовими для відповідального інноваційного розвитку. Здорові спільноти відкритого коду сприятимуть формуванню кращих практик, спільних інструментів для відповідності (наприклад, етичних модулів), знижуючи бар’єри для малих і середніх компаній і закладаючи етичні цінності у технології через код.

По-третє, стандарти і сертифікація швидко розвиватимуться. Під керівництвом «Положення» галузеві асоціації і стандартизаційні органи розроблятимуть повний набір стандартів — від даних і алгоритмів до застосувань і оцінки. Можливо, з’являться незалежні етичні сертифікаційні механізми, що стануть важливим критерієм вибору на ринку.

По-четверте, акцент зміщується з «післяподії» до «запобігання» і «проміжних заходів». Перевірка упереджень у тренувальних даних, етичне узгодження цілей алгоритмів, моделювання поведінки агентів — все це дозволить зменшити ризики на ранніх етапах. Для протоколів, таких як Rotifer, що передбачають автономну еволюцію, можливо, знадобиться запровадити «зони безпеки» або «конституційний AI», щоб встановити незмінні принципи для самовдосконалення.

Загалом, майбутнє — це не зачинена система правил, а динамічний процес, що поєднує регулювання і технології у спільному русі. Це шлях до «відповідального інтелектуального розвитку», де цифрові віртуальні особи стануть помічниками людства у підвищенні продуктивності, збагаченні культури і покращенні громадських послуг, а не джерелами неконтрольованих ризиків. Це вимагає постійного діалогу між політиками, технологами, бізнесом і суспільством, а основою всього є довготриві цінності «людина-центр».

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити