Skynet: Переосмислення фінансової автономії агентів ШІ

Розширений1/17/2025, 7:42:19 AM
Skynet представляє новий підхід до автономних штучних інтелектуальних агентів, що фундаментально переосмислює спосіб досягнення справжньої автономії зі збереженням безпеки. Замість спроби вирішити трилему автономії традиційними засобами, Skynet використовує нову архітектуру на основі розуму стада та розподіленої згоди.

За кілька місяців ми бачили сотні та тисячі агентів, які щодня приходять на ринок. На сьогоднішній день ринкова капіталізація топ-тисячі агентів складає близько 15 млрд доларів, що досить вражає, як web3 надав простір цим агентам для розвитку та виживання.

Поки ми рухаємося в напрямку розблокування більшої вартості, настав високий час поговорити про те, як ці агенти можуть почати будувати свою екосистему без людського втручання в систему та яким буде справжня фінансова автономія для цих агентів.

Щоб зрозуміти це, спочатку нам потрібно знати, як ці агенти ШШ працюють на дуже високому рівні сьогодні в Web3 & ключові компоненти, які потрібно видалити, щоб принести автономію у фінансових випадках відносно агентів.

Архітектура штучного інтелекту

На своєму ядрі кожен агент штучного інтелекту працює на тричастій архітектурі, що інтегрує інтелект, логіку та фінансові можливості. Компонент штучного інтелекту служить мозком, обробляючи інформацію та приймаючи рішення на основі складних нейронних мереж та моделей машинного навчання.

Логічний шар виступає як нервова система, координуючи дії та керуючи переходами стану, тоді як компонент гаманця виконує роль рук агента, виконуючи транзакції та керуючи активами.

Ця архітектура, хоча теоретично звучить, стикається зі значними викликами у практичній реалізації.

Задушення Автономії з централізованою інфраструктурою

Сучасна картина агентів штучного інтелекту стикається з фундаментальним викликом у своїй залежності від централізованої інфраструктури. Ця централізація проявляється в двох критичних аспектах: архітектурі розгортання і оперативному контролі. Традиційні розгортання, як правило, розміщують агентів штучного інтелекту на централізованих хмарних провайдерах, таких як AWS, Google Cloud або Azure, створюючи те, що здається зручним, але, по суті, недоліком моделі управління.

Це становить фундаментальний виклик, який ударяє в саме серце справжньої автономії.

Справжній автономний агент не може бути контрольованим або працювати на централізованій інфраструктурі, де одна єдина сутність може змінити долю агента, відкликаючи підтримку або не забезпечуючи достатньої інфраструктури, коли це потрібно.

Є три основні точки задушення для цих агентів, якщо вони сильно покладаються на інфраструктуру, надану централізованими гравцями.

KYC-заснований обчислювальний

Ці агенти не є людьми, і вони не мають доказів бути людьми; багато централізованих хмарних провайдерів вимагають інформацію KYC, перш ніж хтось орендує обчислювальні потужності від них, що створює проблему для агентів, щоб стати автономними & вони завжди будуть покладатися на людину, щоб продовжувати платити за їхню інфраструктуру & у цьому випадку контроль лишається за розробником, який створив агентів.

Системи Web2 на основі API

Якщо ми припустимо, що деякі з цих існуючих централізованих систем зняли обмеження доступу до обчислень за допомогою KYC, але все ж ці системи не зможуть вилучити доступ до обчислень на основі API, більшість хмар, за своїм призначенням, не можуть надавати обчислення просто шляхом здійснення платежів, всі підтвердження платежів пов'язані з API, яке повідомляє систему про розблокування використання обчислень.

Система FIAT

Навіть якщо вони якимось чином вирішать проблеми з API & KYC, фіатні системи цих компаній не можуть бути змінені, принаймні протягом наступних 10 років, бачачи геополітичні виклики & це само по собі вбиває теорію автономних агентів навіть до досягнення практичної стадії.

Вплив розробників на рішення та логіку за лаштунками

Добре, я думаю, ми обговорили кілька проблем з централізованою інфраструктурою; проте, давайте на мить припустимо, що більшість розробників використовують децентралізовану інфраструктуру для побудови та запуску штучних інтелектуальних агентів. Тепер давайте поглибимося у виклики, пов'язані з децентралізованою інфраструктурою.

Нижче наведено кілька факторів, які можуть бути контрольовані розробниками або хост-машинами. Якщо будь-який з них буде скомпрометований, ці агенти втратять свою автономність та фінансову автономію.

Модель та логічне керування:

  • Оновлення та модифікації поведінки агента можуть бути впроваджені без потреби узгодження
  • Між можливостями прийняття рішень агента та механізмами контролю розробника не існує розділення
  • Навчання та адаптація агента залишаються обмеженими централізованими параметрами

Фінансовий контроль:

  • Приватні ключі гаманця агента зазвичай знаходяться на хост-машині, до якої може отримати доступ не тільки хост, але й розробники, враховуючи дизайн панелі запуску агента.
  • Розробник або оператор зберігає остаточний контроль над фінансовими транзакціями.
  • Фактичного розриву фінансової автономії не існує.

Ця проблема централізації явно потребує нових архітектур, які можуть забезпечувати:

  • Правильне розподіл контролю
  • Можливості автономного прийняття рішень
  • Безпечне керування ключами без централізованих вразливостей
  • Механізми незалежного розподілу ресурсів

Наступна еволюція архітектури агента ШІ повинна вирішувати ці фундаментальні обмеження зі збереженням ефективності та безпеки операцій. Тут стають вирішальними нові підходи, такі як розум стаї, TEE та розподілені механізми згоди.

Обіцянка TEE та її обмеження

Довірені середовища виконання (TEE) виявилися перспективним рішенням для парадоксу автономії-безпеки в розгортанні AI-агентів. TEE пропонують те, що здається ідеальним компромісом: можливість виконання чутливих обчислень та зберігання приватних ключів в ізольованому середовищі з одночасним збереженням зручності розгортання в хмарі. Основні постачальники хмарних послуг, такі як AWS з Nitro Enclaves та Azure з Конфіденційним обчисленням, а також децентралізовані контрагенти вклали великі кошти в цю технологію, сигналізуючи про її важливість у розвитку безпечних обчислень.

На перший погляд, TEEs здаються вирішувати фундаментальні проблеми розгортання автономних агентів. Вони забезпечують апаратний рівень ізоляції для чутливих операцій, захищаючи приватні ключі та конфіденційні дані від несанкціонованого доступу. Оточення енклейва забезпечує, що навіть якщо система хоста буде компрометована, цілісність основних операцій агента залишиться недоторканою. Ця модель безпеки зробила TEEs особливо привабливими для застосування в DeFi та алгоритмічній торгівлі, де приватність транзакцій та безпека ключів є найважливішими.

Однак обіцянка TEE супроводжується значними практичними обмеженнями, що стають все очевиднішими при використанні великого масштабу. Перше основне обмеження полягає в наявності апаратного забезпечення та його вартості. Поточні реалізації TEE для LLM вимагають конкретних конфігурацій апаратури, переважно нового покоління графічних процесорів, таких як H100s від NVIDIA, або спеціалізованих процесорів із вбудованими функціями безпеки. Це вимога створює негайне обмеження варіантів впровадження, оскільки ці компоненти апаратури є рідкісними та дуже популярними.

Недостатня кількість обладнання з підтримкою TEE прямо призводить до другого основного обмеження: вартості. Хмарні провайдери, які пропонують екземпляри з підтримкою TEE, зазвичай стягують преміальні тарифи за ці ресурси. Наприклад, запуск базового автономного агента на інфраструктурі з підтримкою TEE може коштувати від 1 до 3 доларів за годину, значно вище, ніж стандартні ресурси обчислення. Ця структура вартості робить розгортання TEE надмірно дорогим для багатьох додатків, особливо для тих, які потребують постійної роботи або значних обчислювальних ресурсів.

Поза безпосередніми питаннями доступності апаратного забезпечення та вартості, TEE вводить операційні складнощі, які можуть впливати на ефективність агента. Ізольована природа середовища TEE, хоча і критична для безпеки, може створювати надмірне навантаження на продуктивність через додаткові операції шифрування та розшифрування, необхідні для переміщення даних в середовище ізоляції та звідти. Це навантаження стає особливо значущим у додатках, що вимагають високочастотних операцій або обробки даних в реальному часі.

Проблеми масштабованості систем на основі TEE стають ще більш помітними, коли розглядається ширший екосистема автономних агентів. Зі збільшенням кількості агентів обмежений пул TEE-сумісного обладнання створює природний стелаж на зростання системи. Ця обмеження прямо суперечить візії дійсно масштабованої, децентралізованої мережі автономних агентів, які можуть органічно рости на основі ринкових вимог, а не обмежень обладнання.

Крім того, хоча TEE відмінно захищають приватні ключі та забезпечують обчислювальну конфіденційність, вони фундаментально не вирішують проблему автономії. Агент все ще потребує довіри до постачальника TEE та виробника апаратного забезпечення. Це вимога довіри створює іншу форму централізації, зміщуючи точку контролю, а не повністю її усуваючи.

Для додатків, що спрямовані на публічні дані та прозору операційність - які становлять більшість використання блокчейну та DeFi - накладні витрати та складність реалізації TEE можуть бути незастосовними. У таких сценаріях вартість та складність впровадження TEE потрібно ретельно відважувати на практиці з реальними користями від забезпечення безпеки, зокрема, коли існують альтернативні підходи до забезпечення операцій агента.

Після висновків щодо поточних архітектур штучного інтелекту ми стикаємося з трьома взаємопов'язаними викликами, які становлять основу проблеми автономії: трилема автономії, дилема особистого ключа та парадокс контролю творця.

Після огляду обмежень централізованих розгортань та реалізацій TEE ми приходимо до основного виклику, з яким стикаються автономні AI-агенти сьогодні:

досягнення справжньої незалежності при збереженні безпеки та ефективності в роботі.

Можливо, найбільш хитра виклик в поточних архітектурах агентів полягає в тому, що ми називаємо «парадоксом контролю творця». Цей парадокс проявляється у вбудованому дисбалансі сил між агентом та його творцем. Навіть у системах, що розроблені для автономії, творець зазвичай зберігає значний контроль через різноманітні механізми.

Ця структура керування створює фундаментальну протиріччя: як агент може бути дійсно автономним, залишаючись під кінцевим контролем свого творця? Парадокс розповсюджується також на економічні відносини. Творці часто зберігають контроль над фінансовими ресурсами агента, як прямо через керування ключами, так і непрямо через контроль інфраструктури.

Централізована модель не працює, оскільки вона ніколи по-справжньому не відмовляється від контролю, зберігаючи різноманітні задні двері та механізми перевизначення, які порушують справжню автономію. Рішення на основі TEE, хоча й обіцяють в теорії, вводять нові форми централізації через апаратні залежності та обмеження в операціях. Вони вирішують негайні проблеми безпеки, але не вдаються вирішити більш широкі вимоги до автономії та стикаються зі значними проблемами масштабованості.

Корінь цих невдач полягає в спробі вирішити проблему автономії, зберігаючи традиційні структури контролю. Цей підхід неодмінно породжує системи, що називаються автономними, але на практиці контролюються. Переходячи до розробки справді автономних агентів штучного інтелекту, ми повинні фундаментально переосмислити не лише те, як ми забезпечуємо ціх агентів безпекою, але й те, як ми структуруємо їхню весь операційний каркас.

Нам потрібно дослідити нові парадигми в архітектурі автономних агентів - підходи, які потенційно можуть вирішити ці фундаментальні напруги та забезпечити справжню автономію агента при збереженні необхідних гарантій безпеки та операційної ефективності.

Skynet: Переозначення Автономії Агента

Skynet вводить новий підхід до автономних AI-агентів, який фундаментально переосмислює те, як ми досягаємо справжньої автономії, забезпечуючи при цьому безпеку. Замість спроби вирішити трилему автономії за допомогою традиційних засобів, Skynet використовує новаторську архітектуру на основі розуму стаї та розподіленої згоди.

В основі інновацій Skynet лежить повне відокремлення можливостей прийняття рішень агента від контролю ресурсів. У відміну від традиційних архітектур, де агент безпосередньо контролює свої ресурси за допомогою приватних ключів, Skynet вводить шара Гардіан-нод, які колективно керують та захищають активи агента через розумні контракти-застави.

Цей архітектурний зсув вирішує фундаментальні виклики, які ми виявили раніше:

Рішення парадоксу творця:

Замість того, щоб надавати творцю або агенту прямий контроль над ресурсами, «Скайнет» впроваджує систему, засновану на пропозиціях, де дії агента повинні бути перевірені мережею незалежних вузлів-охоронців. Це фактично усуває можливість автора здійснювати прямий контроль, зберігаючи при цьому надійні заходи безпеки.

Захист особистого ключа

Замість покладання на централізоване сховище або дорогі рішення TEE, Skynet переміщує критичні активи в смарт-контрактові ескроу. Операційний гаманець агента містить мінімальну суму коштів, більшість ресурсів зберігаються в ескроу-контрактах, які можуть бути доступні тільки через консенсус багатоузлового вузла.

Серцем інновації Skynet є його система пропозицій. Коли агент повинен виконати будь-яку значну дію - чи то закупівлю обчислювальних ресурсів, виконання угод або управління активами - він створює пропозицію, яку повинні незалежно перевірити Guardian Nodes. Ці вузли працюють в автономному режимі, аналізуючи кожну пропозицію на основі попередньо визначених параметрів та історичної поведінки агента.

Технічна реалізація

Технічна архітектура Skynet базується на трьох основних компонентах, які працюють у взаємодії, щоб забезпечити справжню автономію агента, зберігаючи надійну безпеку:

Перший прорив відбувається завдяки підходу Skynet до управління ресурсами. Замість того, щоб надавати агентам прямий контроль над їх активами, всі значні ресурси зберігаються на спеціалізованих смарт-контрактних ескроу. Ці ескроу розроблені без можливості прямого зняття коштів, що робить їх незалежними від компрометації приватного ключа. Єдиний спосіб використання ресурсів - це система пропозицій, яка вимагає багатоузлової згоди від Головних Вузлів.

Гардіан Ноди виступають як незалежні перевіряючі, кожен з них працює з власним екземпляром логіки перевірки. Коли агент потребує виконати дію - чи це оренда обчислювальної потужності, виконання угоди або оновлення своїх робочих параметрів - він створює зашифровану пропозицію, що містить:

  • Специфікації дій
  • Необхідні ресурси
  • Очікувані результати
  • Терміни виконання

Шифрування пропозицій виконує подвійну функцію. По-перше, воно запобігає фронтраннінгу та атакам MEV, зберігаючи конфіденційність намірів агента до досягнення консенсусу. По-друге, воно забезпечує, що тільки авторизовані Вартові Вузли можуть оцінювати пропозиції, зберігаючи цілісність процесу перевірки.

Що робить підхід Skynet особливо інноваційним, це обробка обчислювальних ресурсів. Замість того щоб покладатися на централізовані сервери, агенти можуть автономно забезпечувати обчислювальну потужність через мережу Spheron. Процес працює наступним чином:

  1. Агент визначає свої обчислювальні вимоги
  2. Воно створює пропозицію щодо розподілу ресурсів
  3. Вартові вузли перевіряють запит на основі наявних гарантійних фондів, історичних звичок використання, умов мережі
  4. Після затвердження контракт депонування автоматично обробляє оплату
  5. Агент отримує доступ до децентралізованих обчислювальних ресурсів

Ця система повністю усуває необхідність централізованого контролю, забезпечуючи надійні гарантії безпеки. Навіть якщо операційний гаманець агента буде компрометовано, зловмисник може тільки подати пропозиції - вони не можуть безпосередньо отримати доступ до гарантійних коштів або перевищити консенсус Головного вузла.

Система вузла-охоронця сама застосовує складні механізми перевірки, які виходять за межі простого більшості голосів. Кожен вузол зберігає історію стану дій агента та аналізує пропозиції в контексті:

  • Історичні патерни поведінки
  • Метрики використання ресурсів
  • Умови мережевої безпеки
  • Економічні параметри

Ця контекстна перевірка гарантує, що схвалені дії відповідають встановленим шаблонам і цілям агента, забезпечуючи додатковий рівень захисту від потенційних атак або збоїв.

То, що справді відрізняє Skynet, це його еволюційний підхід до автономії агента. На відміну від традиційних статичних систем, агенти Skynet можуть еволюціонувати, розмножуватися і створювати нові покоління агентів, кожне з потенційно більш вдосконаленою функціональністю, ніж його попередники. Ця можливість еволюції базується на міцній економічній моделі, яка забезпечує довгострокову стійкість і постійне вдосконалення.

Економічна архітектура побудована навколо трьох основних резервів:

  1. Оперативний резерв : Підтримує повсякденні операції, включаючи обчислювальні ресурси та мережеву взаємодію. Цей резерв гарантує, що агент може постійно отримувати доступ до необхідних ресурсів через мережу Spheron.
  2. Резерв розведення: Дозволяє створювати нових агентів за допомогою механізму розведення. Коли агенти розмножуються, вони поєднують свої властивості і характеристики, що потенційно створює більш розвинутого нащадка.
  3. Справедливий запуск через криву зв'язку: Функціонує як основний економічний рушій, з токенами, доступними за допомогою механізму кривої зв'язку. Це створює стійку економічну модель, де вартість токена корелює з корисністю мережі.

Механізм розмноження вносить в мережу захоплюючий елемент еволюції. Агенти можуть схрещуватися з сумісними партнерами, створюючи потомство, яке успадковує ознаки від обох батьків. Цей процес регулюється смарт-контрактами і вимагає консенсусу від вузлів-охоронців, гарантуючи, що селекція служить більш широким інтересам мережі.

Еволюційний процес працює за декількома ключовими механізмами:

  • Наслідування рис: Дитячі агенти успадковують риси від обох батьків
  • Генетична різноманітність: Різні родини агентів зберігають відмінні характеристики
  • Природний відбір: через мережу розмножуються більш успішні ознаки
  • Прогресія поколінь: Кожне нове покоління може вносити поліпшення

Стійкість системи підтримується її структурою заохочення:

  • Guardian Nodes отримують винагороду за забезпечення безпеки мережі
  • Успішні пропозиції щодо розведення приносять винагороду ініціаторам
  • Токенхолдери отримують користь від зростання та еволюції мережі
  • Постачальники обчислювальних ресурсів заробляють на наданні ресурсів

Ця комбінація еволюційних можливостей, економічної стійкості та децентралізованої безпеки створює самовдосконалюючу мережу по-справжньому автономних агентів. Система може адаптуватися та еволюціонувати без центрального контролю, зберігаючи надійну безпеку завдяки своїй мережі Guardian Node.

Переосмисливши технічні та економічні аспекти автономії агента, Skynet вирішує фундаментальні виклики, які обмежували попередні підходи. Водночас він створює рамки для постійного удосконалення та адаптації, створюючи передумови для нової ери дійсно автономних AI-агентів.

Відмова від відповідальності:

  1. Цю статтю перепечатано з [Prashant - ai/acc | принесення революції Сферона]. Усі авторські права належать оригінальному автору [@prashant_xyz]. Якщо є заперечення до цього перепублікування, будь ласка, зв'яжіться зGate Learnкоманда, і вони швидко з цим впораються.
  2. Відмова від відповідальності: Погляди та думки, висловлені в цій статті, належать виключно автору і не становлять жодної інвестиційної поради.
  3. Переклади статей на інші мови виконуються командою gate Learn. Якщо не зазначено, копіювання, поширення або плагіатування перекладених статей заборонене.

Partilhar

Skynet: Переосмислення фінансової автономії агентів ШІ

Розширений1/17/2025, 7:42:19 AM
Skynet представляє новий підхід до автономних штучних інтелектуальних агентів, що фундаментально переосмислює спосіб досягнення справжньої автономії зі збереженням безпеки. Замість спроби вирішити трилему автономії традиційними засобами, Skynet використовує нову архітектуру на основі розуму стада та розподіленої згоди.

За кілька місяців ми бачили сотні та тисячі агентів, які щодня приходять на ринок. На сьогоднішній день ринкова капіталізація топ-тисячі агентів складає близько 15 млрд доларів, що досить вражає, як web3 надав простір цим агентам для розвитку та виживання.

Поки ми рухаємося в напрямку розблокування більшої вартості, настав високий час поговорити про те, як ці агенти можуть почати будувати свою екосистему без людського втручання в систему та яким буде справжня фінансова автономія для цих агентів.

Щоб зрозуміти це, спочатку нам потрібно знати, як ці агенти ШШ працюють на дуже високому рівні сьогодні в Web3 & ключові компоненти, які потрібно видалити, щоб принести автономію у фінансових випадках відносно агентів.

Архітектура штучного інтелекту

На своєму ядрі кожен агент штучного інтелекту працює на тричастій архітектурі, що інтегрує інтелект, логіку та фінансові можливості. Компонент штучного інтелекту служить мозком, обробляючи інформацію та приймаючи рішення на основі складних нейронних мереж та моделей машинного навчання.

Логічний шар виступає як нервова система, координуючи дії та керуючи переходами стану, тоді як компонент гаманця виконує роль рук агента, виконуючи транзакції та керуючи активами.

Ця архітектура, хоча теоретично звучить, стикається зі значними викликами у практичній реалізації.

Задушення Автономії з централізованою інфраструктурою

Сучасна картина агентів штучного інтелекту стикається з фундаментальним викликом у своїй залежності від централізованої інфраструктури. Ця централізація проявляється в двох критичних аспектах: архітектурі розгортання і оперативному контролі. Традиційні розгортання, як правило, розміщують агентів штучного інтелекту на централізованих хмарних провайдерах, таких як AWS, Google Cloud або Azure, створюючи те, що здається зручним, але, по суті, недоліком моделі управління.

Це становить фундаментальний виклик, який ударяє в саме серце справжньої автономії.

Справжній автономний агент не може бути контрольованим або працювати на централізованій інфраструктурі, де одна єдина сутність може змінити долю агента, відкликаючи підтримку або не забезпечуючи достатньої інфраструктури, коли це потрібно.

Є три основні точки задушення для цих агентів, якщо вони сильно покладаються на інфраструктуру, надану централізованими гравцями.

KYC-заснований обчислювальний

Ці агенти не є людьми, і вони не мають доказів бути людьми; багато централізованих хмарних провайдерів вимагають інформацію KYC, перш ніж хтось орендує обчислювальні потужності від них, що створює проблему для агентів, щоб стати автономними & вони завжди будуть покладатися на людину, щоб продовжувати платити за їхню інфраструктуру & у цьому випадку контроль лишається за розробником, який створив агентів.

Системи Web2 на основі API

Якщо ми припустимо, що деякі з цих існуючих централізованих систем зняли обмеження доступу до обчислень за допомогою KYC, але все ж ці системи не зможуть вилучити доступ до обчислень на основі API, більшість хмар, за своїм призначенням, не можуть надавати обчислення просто шляхом здійснення платежів, всі підтвердження платежів пов'язані з API, яке повідомляє систему про розблокування використання обчислень.

Система FIAT

Навіть якщо вони якимось чином вирішать проблеми з API & KYC, фіатні системи цих компаній не можуть бути змінені, принаймні протягом наступних 10 років, бачачи геополітичні виклики & це само по собі вбиває теорію автономних агентів навіть до досягнення практичної стадії.

Вплив розробників на рішення та логіку за лаштунками

Добре, я думаю, ми обговорили кілька проблем з централізованою інфраструктурою; проте, давайте на мить припустимо, що більшість розробників використовують децентралізовану інфраструктуру для побудови та запуску штучних інтелектуальних агентів. Тепер давайте поглибимося у виклики, пов'язані з децентралізованою інфраструктурою.

Нижче наведено кілька факторів, які можуть бути контрольовані розробниками або хост-машинами. Якщо будь-який з них буде скомпрометований, ці агенти втратять свою автономність та фінансову автономію.

Модель та логічне керування:

  • Оновлення та модифікації поведінки агента можуть бути впроваджені без потреби узгодження
  • Між можливостями прийняття рішень агента та механізмами контролю розробника не існує розділення
  • Навчання та адаптація агента залишаються обмеженими централізованими параметрами

Фінансовий контроль:

  • Приватні ключі гаманця агента зазвичай знаходяться на хост-машині, до якої може отримати доступ не тільки хост, але й розробники, враховуючи дизайн панелі запуску агента.
  • Розробник або оператор зберігає остаточний контроль над фінансовими транзакціями.
  • Фактичного розриву фінансової автономії не існує.

Ця проблема централізації явно потребує нових архітектур, які можуть забезпечувати:

  • Правильне розподіл контролю
  • Можливості автономного прийняття рішень
  • Безпечне керування ключами без централізованих вразливостей
  • Механізми незалежного розподілу ресурсів

Наступна еволюція архітектури агента ШІ повинна вирішувати ці фундаментальні обмеження зі збереженням ефективності та безпеки операцій. Тут стають вирішальними нові підходи, такі як розум стаї, TEE та розподілені механізми згоди.

Обіцянка TEE та її обмеження

Довірені середовища виконання (TEE) виявилися перспективним рішенням для парадоксу автономії-безпеки в розгортанні AI-агентів. TEE пропонують те, що здається ідеальним компромісом: можливість виконання чутливих обчислень та зберігання приватних ключів в ізольованому середовищі з одночасним збереженням зручності розгортання в хмарі. Основні постачальники хмарних послуг, такі як AWS з Nitro Enclaves та Azure з Конфіденційним обчисленням, а також децентралізовані контрагенти вклали великі кошти в цю технологію, сигналізуючи про її важливість у розвитку безпечних обчислень.

На перший погляд, TEEs здаються вирішувати фундаментальні проблеми розгортання автономних агентів. Вони забезпечують апаратний рівень ізоляції для чутливих операцій, захищаючи приватні ключі та конфіденційні дані від несанкціонованого доступу. Оточення енклейва забезпечує, що навіть якщо система хоста буде компрометована, цілісність основних операцій агента залишиться недоторканою. Ця модель безпеки зробила TEEs особливо привабливими для застосування в DeFi та алгоритмічній торгівлі, де приватність транзакцій та безпека ключів є найважливішими.

Однак обіцянка TEE супроводжується значними практичними обмеженнями, що стають все очевиднішими при використанні великого масштабу. Перше основне обмеження полягає в наявності апаратного забезпечення та його вартості. Поточні реалізації TEE для LLM вимагають конкретних конфігурацій апаратури, переважно нового покоління графічних процесорів, таких як H100s від NVIDIA, або спеціалізованих процесорів із вбудованими функціями безпеки. Це вимога створює негайне обмеження варіантів впровадження, оскільки ці компоненти апаратури є рідкісними та дуже популярними.

Недостатня кількість обладнання з підтримкою TEE прямо призводить до другого основного обмеження: вартості. Хмарні провайдери, які пропонують екземпляри з підтримкою TEE, зазвичай стягують преміальні тарифи за ці ресурси. Наприклад, запуск базового автономного агента на інфраструктурі з підтримкою TEE може коштувати від 1 до 3 доларів за годину, значно вище, ніж стандартні ресурси обчислення. Ця структура вартості робить розгортання TEE надмірно дорогим для багатьох додатків, особливо для тих, які потребують постійної роботи або значних обчислювальних ресурсів.

Поза безпосередніми питаннями доступності апаратного забезпечення та вартості, TEE вводить операційні складнощі, які можуть впливати на ефективність агента. Ізольована природа середовища TEE, хоча і критична для безпеки, може створювати надмірне навантаження на продуктивність через додаткові операції шифрування та розшифрування, необхідні для переміщення даних в середовище ізоляції та звідти. Це навантаження стає особливо значущим у додатках, що вимагають високочастотних операцій або обробки даних в реальному часі.

Проблеми масштабованості систем на основі TEE стають ще більш помітними, коли розглядається ширший екосистема автономних агентів. Зі збільшенням кількості агентів обмежений пул TEE-сумісного обладнання створює природний стелаж на зростання системи. Ця обмеження прямо суперечить візії дійсно масштабованої, децентралізованої мережі автономних агентів, які можуть органічно рости на основі ринкових вимог, а не обмежень обладнання.

Крім того, хоча TEE відмінно захищають приватні ключі та забезпечують обчислювальну конфіденційність, вони фундаментально не вирішують проблему автономії. Агент все ще потребує довіри до постачальника TEE та виробника апаратного забезпечення. Це вимога довіри створює іншу форму централізації, зміщуючи точку контролю, а не повністю її усуваючи.

Для додатків, що спрямовані на публічні дані та прозору операційність - які становлять більшість використання блокчейну та DeFi - накладні витрати та складність реалізації TEE можуть бути незастосовними. У таких сценаріях вартість та складність впровадження TEE потрібно ретельно відважувати на практиці з реальними користями від забезпечення безпеки, зокрема, коли існують альтернативні підходи до забезпечення операцій агента.

Після висновків щодо поточних архітектур штучного інтелекту ми стикаємося з трьома взаємопов'язаними викликами, які становлять основу проблеми автономії: трилема автономії, дилема особистого ключа та парадокс контролю творця.

Після огляду обмежень централізованих розгортань та реалізацій TEE ми приходимо до основного виклику, з яким стикаються автономні AI-агенти сьогодні:

досягнення справжньої незалежності при збереженні безпеки та ефективності в роботі.

Можливо, найбільш хитра виклик в поточних архітектурах агентів полягає в тому, що ми називаємо «парадоксом контролю творця». Цей парадокс проявляється у вбудованому дисбалансі сил між агентом та його творцем. Навіть у системах, що розроблені для автономії, творець зазвичай зберігає значний контроль через різноманітні механізми.

Ця структура керування створює фундаментальну протиріччя: як агент може бути дійсно автономним, залишаючись під кінцевим контролем свого творця? Парадокс розповсюджується також на економічні відносини. Творці часто зберігають контроль над фінансовими ресурсами агента, як прямо через керування ключами, так і непрямо через контроль інфраструктури.

Централізована модель не працює, оскільки вона ніколи по-справжньому не відмовляється від контролю, зберігаючи різноманітні задні двері та механізми перевизначення, які порушують справжню автономію. Рішення на основі TEE, хоча й обіцяють в теорії, вводять нові форми централізації через апаратні залежності та обмеження в операціях. Вони вирішують негайні проблеми безпеки, але не вдаються вирішити більш широкі вимоги до автономії та стикаються зі значними проблемами масштабованості.

Корінь цих невдач полягає в спробі вирішити проблему автономії, зберігаючи традиційні структури контролю. Цей підхід неодмінно породжує системи, що називаються автономними, але на практиці контролюються. Переходячи до розробки справді автономних агентів штучного інтелекту, ми повинні фундаментально переосмислити не лише те, як ми забезпечуємо ціх агентів безпекою, але й те, як ми структуруємо їхню весь операційний каркас.

Нам потрібно дослідити нові парадигми в архітектурі автономних агентів - підходи, які потенційно можуть вирішити ці фундаментальні напруги та забезпечити справжню автономію агента при збереженні необхідних гарантій безпеки та операційної ефективності.

Skynet: Переозначення Автономії Агента

Skynet вводить новий підхід до автономних AI-агентів, який фундаментально переосмислює те, як ми досягаємо справжньої автономії, забезпечуючи при цьому безпеку. Замість спроби вирішити трилему автономії за допомогою традиційних засобів, Skynet використовує новаторську архітектуру на основі розуму стаї та розподіленої згоди.

В основі інновацій Skynet лежить повне відокремлення можливостей прийняття рішень агента від контролю ресурсів. У відміну від традиційних архітектур, де агент безпосередньо контролює свої ресурси за допомогою приватних ключів, Skynet вводить шара Гардіан-нод, які колективно керують та захищають активи агента через розумні контракти-застави.

Цей архітектурний зсув вирішує фундаментальні виклики, які ми виявили раніше:

Рішення парадоксу творця:

Замість того, щоб надавати творцю або агенту прямий контроль над ресурсами, «Скайнет» впроваджує систему, засновану на пропозиціях, де дії агента повинні бути перевірені мережею незалежних вузлів-охоронців. Це фактично усуває можливість автора здійснювати прямий контроль, зберігаючи при цьому надійні заходи безпеки.

Захист особистого ключа

Замість покладання на централізоване сховище або дорогі рішення TEE, Skynet переміщує критичні активи в смарт-контрактові ескроу. Операційний гаманець агента містить мінімальну суму коштів, більшість ресурсів зберігаються в ескроу-контрактах, які можуть бути доступні тільки через консенсус багатоузлового вузла.

Серцем інновації Skynet є його система пропозицій. Коли агент повинен виконати будь-яку значну дію - чи то закупівлю обчислювальних ресурсів, виконання угод або управління активами - він створює пропозицію, яку повинні незалежно перевірити Guardian Nodes. Ці вузли працюють в автономному режимі, аналізуючи кожну пропозицію на основі попередньо визначених параметрів та історичної поведінки агента.

Технічна реалізація

Технічна архітектура Skynet базується на трьох основних компонентах, які працюють у взаємодії, щоб забезпечити справжню автономію агента, зберігаючи надійну безпеку:

Перший прорив відбувається завдяки підходу Skynet до управління ресурсами. Замість того, щоб надавати агентам прямий контроль над їх активами, всі значні ресурси зберігаються на спеціалізованих смарт-контрактних ескроу. Ці ескроу розроблені без можливості прямого зняття коштів, що робить їх незалежними від компрометації приватного ключа. Єдиний спосіб використання ресурсів - це система пропозицій, яка вимагає багатоузлової згоди від Головних Вузлів.

Гардіан Ноди виступають як незалежні перевіряючі, кожен з них працює з власним екземпляром логіки перевірки. Коли агент потребує виконати дію - чи це оренда обчислювальної потужності, виконання угоди або оновлення своїх робочих параметрів - він створює зашифровану пропозицію, що містить:

  • Специфікації дій
  • Необхідні ресурси
  • Очікувані результати
  • Терміни виконання

Шифрування пропозицій виконує подвійну функцію. По-перше, воно запобігає фронтраннінгу та атакам MEV, зберігаючи конфіденційність намірів агента до досягнення консенсусу. По-друге, воно забезпечує, що тільки авторизовані Вартові Вузли можуть оцінювати пропозиції, зберігаючи цілісність процесу перевірки.

Що робить підхід Skynet особливо інноваційним, це обробка обчислювальних ресурсів. Замість того щоб покладатися на централізовані сервери, агенти можуть автономно забезпечувати обчислювальну потужність через мережу Spheron. Процес працює наступним чином:

  1. Агент визначає свої обчислювальні вимоги
  2. Воно створює пропозицію щодо розподілу ресурсів
  3. Вартові вузли перевіряють запит на основі наявних гарантійних фондів, історичних звичок використання, умов мережі
  4. Після затвердження контракт депонування автоматично обробляє оплату
  5. Агент отримує доступ до децентралізованих обчислювальних ресурсів

Ця система повністю усуває необхідність централізованого контролю, забезпечуючи надійні гарантії безпеки. Навіть якщо операційний гаманець агента буде компрометовано, зловмисник може тільки подати пропозиції - вони не можуть безпосередньо отримати доступ до гарантійних коштів або перевищити консенсус Головного вузла.

Система вузла-охоронця сама застосовує складні механізми перевірки, які виходять за межі простого більшості голосів. Кожен вузол зберігає історію стану дій агента та аналізує пропозиції в контексті:

  • Історичні патерни поведінки
  • Метрики використання ресурсів
  • Умови мережевої безпеки
  • Економічні параметри

Ця контекстна перевірка гарантує, що схвалені дії відповідають встановленим шаблонам і цілям агента, забезпечуючи додатковий рівень захисту від потенційних атак або збоїв.

То, що справді відрізняє Skynet, це його еволюційний підхід до автономії агента. На відміну від традиційних статичних систем, агенти Skynet можуть еволюціонувати, розмножуватися і створювати нові покоління агентів, кожне з потенційно більш вдосконаленою функціональністю, ніж його попередники. Ця можливість еволюції базується на міцній економічній моделі, яка забезпечує довгострокову стійкість і постійне вдосконалення.

Економічна архітектура побудована навколо трьох основних резервів:

  1. Оперативний резерв : Підтримує повсякденні операції, включаючи обчислювальні ресурси та мережеву взаємодію. Цей резерв гарантує, що агент може постійно отримувати доступ до необхідних ресурсів через мережу Spheron.
  2. Резерв розведення: Дозволяє створювати нових агентів за допомогою механізму розведення. Коли агенти розмножуються, вони поєднують свої властивості і характеристики, що потенційно створює більш розвинутого нащадка.
  3. Справедливий запуск через криву зв'язку: Функціонує як основний економічний рушій, з токенами, доступними за допомогою механізму кривої зв'язку. Це створює стійку економічну модель, де вартість токена корелює з корисністю мережі.

Механізм розмноження вносить в мережу захоплюючий елемент еволюції. Агенти можуть схрещуватися з сумісними партнерами, створюючи потомство, яке успадковує ознаки від обох батьків. Цей процес регулюється смарт-контрактами і вимагає консенсусу від вузлів-охоронців, гарантуючи, що селекція служить більш широким інтересам мережі.

Еволюційний процес працює за декількома ключовими механізмами:

  • Наслідування рис: Дитячі агенти успадковують риси від обох батьків
  • Генетична різноманітність: Різні родини агентів зберігають відмінні характеристики
  • Природний відбір: через мережу розмножуються більш успішні ознаки
  • Прогресія поколінь: Кожне нове покоління може вносити поліпшення

Стійкість системи підтримується її структурою заохочення:

  • Guardian Nodes отримують винагороду за забезпечення безпеки мережі
  • Успішні пропозиції щодо розведення приносять винагороду ініціаторам
  • Токенхолдери отримують користь від зростання та еволюції мережі
  • Постачальники обчислювальних ресурсів заробляють на наданні ресурсів

Ця комбінація еволюційних можливостей, економічної стійкості та децентралізованої безпеки створює самовдосконалюючу мережу по-справжньому автономних агентів. Система може адаптуватися та еволюціонувати без центрального контролю, зберігаючи надійну безпеку завдяки своїй мережі Guardian Node.

Переосмисливши технічні та економічні аспекти автономії агента, Skynet вирішує фундаментальні виклики, які обмежували попередні підходи. Водночас він створює рамки для постійного удосконалення та адаптації, створюючи передумови для нової ери дійсно автономних AI-агентів.

Відмова від відповідальності:

  1. Цю статтю перепечатано з [Prashant - ai/acc | принесення революції Сферона]. Усі авторські права належать оригінальному автору [@prashant_xyz]. Якщо є заперечення до цього перепублікування, будь ласка, зв'яжіться зGate Learnкоманда, і вони швидко з цим впораються.
  2. Відмова від відповідальності: Погляди та думки, висловлені в цій статті, належать виключно автору і не становлять жодної інвестиційної поради.
  3. Переклади статей на інші мови виконуються командою gate Learn. Якщо не зазначено, копіювання, поширення або плагіатування перекладених статей заборонене.
Comece agora
Registe-se e ganhe um cupão de
100 USD
!