Пентагон надсилає «кращу та остаточну пропозицію» Anthropic щодо військового використання Claude AI: повідомлення

robot
Генерація анотацій у процесі

(MENAFN- Live Mint) Офіційні представники Пентагону у середу ввечері надіслали Anthropic «найкращу та остаточну пропозицію» у переговорах щодо використання військовими технології штучного інтелекту компанії, повідомляє CBS News із посиланням на джерела, знайомі з обговореннями.

ЗМІ зазначили, що наразі неясно, чи суттєво нова пропозиція змінила попередні вимоги уряду або чи погодилася Anthropic з умовами.

Переговори відбуваються напередодні встановленого урядом терміну, який визначив міністр оборони Піт Гегсетх, який дав стартапу штучного інтелекту до п’ятниці вечора, щоб надати те, що Пентагон описує як повне законне використання його технології — інакше ризикує втратити співпрацю з військовими США.

Загроза втрати контракту та позначка «ризик ланцюга постачання»

Якщо Anthropic не виконає вимоги, наслідки можуть виходити за межі втрати контракту з Пентагоном.

Високопосадовець Пентагону повідомив CBS News, що компанія може зіткнутися не лише з втратою бізнесу, а й з позначкою «ризик ланцюга постачання».

З посиланням на джерела ЗМІ повідомляє, що офіційні особи Пентагону розглядають можливість застосування Закону про оборонне виробництво для примусу Anthropic дотримуватися вимог військових. Цей крок потенційно надасть уряду розширені повноваження вимагати співпрацю в інтересах національної безпеки.

Anthropic було укладено контракт на 200 мільйонів доларів у липні для розробки можливостей штучного інтелекту, спрямованих на просування цілей національної безпеки США.

** Також читати** | Пояснення | Чому Пентагон бореться з Anthropic щодо використання Claude? Спір зосереджений навколо правил для використання ШІ

У центрі переговорів — модель штучного інтелекту Anthropic, Claude.

З посиланням на джерела ЗМІ також повідомляється, що Anthropic неодноразово просила військових погодитися на конкретні обмеження, які б заборонили Claude здійснювати масове спостереження за американцями. Представники адміністрації Трампа заперечили, що таке спостереження є легальним, і запевнили, що Пентагон діє у межах закону.

Генеральний директор Anthropic, Dario Amodei, також наполягав на тому, щоб Claude не використовувався для прийняття остаточних цілевказів у військових операціях без людського контролю, повідомив джерело, знайоме з переговорами, — зазначає ЗМІ.

Джерело зазначило, що, як і інші системи ШІ, Claude не застрахований від галюцинацій і може бути недостатньо надійним, щоб уникнути потенційно смертельних помилок, включаючи непередбачену ескалацію або провал місії без людського судження.

Термін до п’ятниці

Під час зустрічі у Пентагоні у вівторок вранці Гегсетх дав Amodei до п’ятниці, щоб надати підписаний документ, який надає повний доступ до моделі штучного інтелекту Anthropic.

** Також читати** | Cognizant’s Babak Hodjat заспокоює щодо впливу ШІ, викликаного Anthropic

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити