Випадкова помилка ChatGPT розкриває ймовірну китайську кампанію з дискредитації прем'єр-міністра Японії

robot
Генерація анотацій у процесі

(MENAFN- AsiaNet News)

Таємна операція впливу, ймовірно пов’язана з китайськими органами влади, була викрита несподіваним способом — через зловживання ChatGPT як особистим щоденником або «дневником». За повідомленнями, кампанія стала відомою після того, як користувач випадково розкрив чутливі оперативні деталі під час спілкування з штучним інтелектом, що дозволило дослідникам з OpenAI виявити та припинити діяльність.

Виявлена операція була частиною ширшої спроби формувати глобальні наративи та проводити цілеспрямовані дезінформаційні кампанії. Однією з головних цілей, за повідомленнями, було створення та вдосконалення контенту, спрямованого на дискредитацію видатних міжнародних діячів, зокрема високопоставленого японського політика. Користувач використовував ChatGPT для складання, редагування та поліпшення повідомлень, які згодом могли бути поширені через соціальні мережі як частина скоординованої пропагандистської кампанії.

Таємну операцію викрито

Що зробило цю справу особливо вражаючою, так це спосіб її викриття. Замість використання високозахищених або зашифрованих каналів, користувач розглядав взаємодії з ChatGPT як постійний запис планів, фактично документуючи наміри, стратегії та наративи всередині системи. Ця критична помилка дозволила моніторинговим механізмам OpenAI виявити схеми зловживання, що в кінцевому підсумку призвело до блокування облікового запису та зупинки кампанії.

Висновки OpenAI підкреслюють, що штучний інтелект все частіше використовується як у легітимних, так і у зловмисних цілях. У цьому випадку чат-бот використовувався не для безпосереднього здійснення кампанії, а для допомоги у створенні та вдосконаленні контенту — демонструючи, як AI може виступати як посилювач впливу. Однак системи безпеки, вбудовані у платформу, запобігли виконанню явно шкідливих завдань, і зловживання було виявлено до того, як воно могло повністю реалізуватися.

Цей інцидент є частиною більшої тенденції, яку зафіксували у звітах про загрози OpenAI, де описуються різні спроби зловмисників експлуатувати технології штучного інтелекту. Це варіюється від політичної пропаганди та маніпуляцій у соцмережах до шахрайств і схем видачі себе за інших. Хоча багато таких операцій залишаються невеликими за масштабом, їхня складність і частота постійно зростають, викликаючи занепокоєння щодо ролі AI у глобальній інформаційній війні.

Експерти зазначають, що цей випадок підкреслює як ризики, так і внутрішню відповідальність систем AI. Хоча інструменти, такі як ChatGPT, можуть бути зловживані, вони також залишають цифрові сліди, які можуть викрити неправомірні дії за наявності відповідних заходів безпеки. Випадкова розкриття служить нагадуванням, що навіть таємні операції можуть розвалитися через прості помилки у все більш контрольованій цифровій екосистемі.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити