За кілька місяців ми бачили сотні та тисячі агентів, які щодня приходять на ринок. На сьогоднішній день ринкова капіталізація топ-тисячі агентів складає близько 15 млрд доларів, що досить вражає, як web3 надав простір цим агентам для розвитку та виживання.
Поки ми рухаємося в напрямку розблокування більшої вартості, настав високий час поговорити про те, як ці агенти можуть почати будувати свою екосистему без людського втручання в систему та яким буде справжня фінансова автономія для цих агентів.
Щоб зрозуміти це, спочатку нам потрібно знати, як ці агенти ШШ працюють на дуже високому рівні сьогодні в Web3 & ключові компоненти, які потрібно видалити, щоб принести автономію у фінансових випадках відносно агентів.
На своєму ядрі кожен агент штучного інтелекту працює на тричастій архітектурі, що інтегрує інтелект, логіку та фінансові можливості. Компонент штучного інтелекту служить мозком, обробляючи інформацію та приймаючи рішення на основі складних нейронних мереж та моделей машинного навчання.
Логічний шар виступає як нервова система, координуючи дії та керуючи переходами стану, тоді як компонент гаманця виконує роль рук агента, виконуючи транзакції та керуючи активами.
Ця архітектура, хоча теоретично звучить, стикається зі значними викликами у практичній реалізації.
Сучасна картина агентів штучного інтелекту стикається з фундаментальним викликом у своїй залежності від централізованої інфраструктури. Ця централізація проявляється в двох критичних аспектах: архітектурі розгортання і оперативному контролі. Традиційні розгортання, як правило, розміщують агентів штучного інтелекту на централізованих хмарних провайдерах, таких як AWS, Google Cloud або Azure, створюючи те, що здається зручним, але, по суті, недоліком моделі управління.
Це становить фундаментальний виклик, який ударяє в саме серце справжньої автономії.
Справжній автономний агент не може бути контрольованим або працювати на централізованій інфраструктурі, де одна єдина сутність може змінити долю агента, відкликаючи підтримку або не забезпечуючи достатньої інфраструктури, коли це потрібно.
Є три основні точки задушення для цих агентів, якщо вони сильно покладаються на інфраструктуру, надану централізованими гравцями.
Ці агенти не є людьми, і вони не мають доказів бути людьми; багато централізованих хмарних провайдерів вимагають інформацію KYC, перш ніж хтось орендує обчислювальні потужності від них, що створює проблему для агентів, щоб стати автономними & вони завжди будуть покладатися на людину, щоб продовжувати платити за їхню інфраструктуру & у цьому випадку контроль лишається за розробником, який створив агентів.
Якщо ми припустимо, що деякі з цих існуючих централізованих систем зняли обмеження доступу до обчислень за допомогою KYC, але все ж ці системи не зможуть вилучити доступ до обчислень на основі API, більшість хмар, за своїм призначенням, не можуть надавати обчислення просто шляхом здійснення платежів, всі підтвердження платежів пов'язані з API, яке повідомляє систему про розблокування використання обчислень.
Навіть якщо вони якимось чином вирішать проблеми з API & KYC, фіатні системи цих компаній не можуть бути змінені, принаймні протягом наступних 10 років, бачачи геополітичні виклики & це само по собі вбиває теорію автономних агентів навіть до досягнення практичної стадії.
Добре, я думаю, ми обговорили кілька проблем з централізованою інфраструктурою; проте, давайте на мить припустимо, що більшість розробників використовують децентралізовану інфраструктуру для побудови та запуску штучних інтелектуальних агентів. Тепер давайте поглибимося у виклики, пов'язані з децентралізованою інфраструктурою.
Нижче наведено кілька факторів, які можуть бути контрольовані розробниками або хост-машинами. Якщо будь-який з них буде скомпрометований, ці агенти втратять свою автономність та фінансову автономію.
Ця проблема централізації явно потребує нових архітектур, які можуть забезпечувати:
Наступна еволюція архітектури агента ШІ повинна вирішувати ці фундаментальні обмеження зі збереженням ефективності та безпеки операцій. Тут стають вирішальними нові підходи, такі як розум стаї, TEE та розподілені механізми згоди.
Довірені середовища виконання (TEE) виявилися перспективним рішенням для парадоксу автономії-безпеки в розгортанні AI-агентів. TEE пропонують те, що здається ідеальним компромісом: можливість виконання чутливих обчислень та зберігання приватних ключів в ізольованому середовищі з одночасним збереженням зручності розгортання в хмарі. Основні постачальники хмарних послуг, такі як AWS з Nitro Enclaves та Azure з Конфіденційним обчисленням, а також децентралізовані контрагенти вклали великі кошти в цю технологію, сигналізуючи про її важливість у розвитку безпечних обчислень.
На перший погляд, TEEs здаються вирішувати фундаментальні проблеми розгортання автономних агентів. Вони забезпечують апаратний рівень ізоляції для чутливих операцій, захищаючи приватні ключі та конфіденційні дані від несанкціонованого доступу. Оточення енклейва забезпечує, що навіть якщо система хоста буде компрометована, цілісність основних операцій агента залишиться недоторканою. Ця модель безпеки зробила TEEs особливо привабливими для застосування в DeFi та алгоритмічній торгівлі, де приватність транзакцій та безпека ключів є найважливішими.
Однак обіцянка TEE супроводжується значними практичними обмеженнями, що стають все очевиднішими при використанні великого масштабу. Перше основне обмеження полягає в наявності апаратного забезпечення та його вартості. Поточні реалізації TEE для LLM вимагають конкретних конфігурацій апаратури, переважно нового покоління графічних процесорів, таких як H100s від NVIDIA, або спеціалізованих процесорів із вбудованими функціями безпеки. Це вимога створює негайне обмеження варіантів впровадження, оскільки ці компоненти апаратури є рідкісними та дуже популярними.
Недостатня кількість обладнання з підтримкою TEE прямо призводить до другого основного обмеження: вартості. Хмарні провайдери, які пропонують екземпляри з підтримкою TEE, зазвичай стягують преміальні тарифи за ці ресурси. Наприклад, запуск базового автономного агента на інфраструктурі з підтримкою TEE може коштувати від 1 до 3 доларів за годину, значно вище, ніж стандартні ресурси обчислення. Ця структура вартості робить розгортання TEE надмірно дорогим для багатьох додатків, особливо для тих, які потребують постійної роботи або значних обчислювальних ресурсів.
Поза безпосередніми питаннями доступності апаратного забезпечення та вартості, TEE вводить операційні складнощі, які можуть впливати на ефективність агента. Ізольована природа середовища TEE, хоча і критична для безпеки, може створювати надмірне навантаження на продуктивність через додаткові операції шифрування та розшифрування, необхідні для переміщення даних в середовище ізоляції та звідти. Це навантаження стає особливо значущим у додатках, що вимагають високочастотних операцій або обробки даних в реальному часі.
Проблеми масштабованості систем на основі TEE стають ще більш помітними, коли розглядається ширший екосистема автономних агентів. Зі збільшенням кількості агентів обмежений пул TEE-сумісного обладнання створює природний стелаж на зростання системи. Ця обмеження прямо суперечить візії дійсно масштабованої, децентралізованої мережі автономних агентів, які можуть органічно рости на основі ринкових вимог, а не обмежень обладнання.
Крім того, хоча TEE відмінно захищають приватні ключі та забезпечують обчислювальну конфіденційність, вони фундаментально не вирішують проблему автономії. Агент все ще потребує довіри до постачальника TEE та виробника апаратного забезпечення. Це вимога довіри створює іншу форму централізації, зміщуючи точку контролю, а не повністю її усуваючи.
Для додатків, що спрямовані на публічні дані та прозору операційність - які становлять більшість використання блокчейну та DeFi - накладні витрати та складність реалізації TEE можуть бути незастосовними. У таких сценаріях вартість та складність впровадження TEE потрібно ретельно відважувати на практиці з реальними користями від забезпечення безпеки, зокрема, коли існують альтернативні підходи до забезпечення операцій агента.
Після висновків щодо поточних архітектур штучного інтелекту ми стикаємося з трьома взаємопов'язаними викликами, які становлять основу проблеми автономії: трилема автономії, дилема особистого ключа та парадокс контролю творця.
Після огляду обмежень централізованих розгортань та реалізацій TEE ми приходимо до основного виклику, з яким стикаються автономні AI-агенти сьогодні:
досягнення справжньої незалежності при збереженні безпеки та ефективності в роботі.
Можливо, найбільш хитра виклик в поточних архітектурах агентів полягає в тому, що ми називаємо «парадоксом контролю творця». Цей парадокс проявляється у вбудованому дисбалансі сил між агентом та його творцем. Навіть у системах, що розроблені для автономії, творець зазвичай зберігає значний контроль через різноманітні механізми.
Ця структура керування створює фундаментальну протиріччя: як агент може бути дійсно автономним, залишаючись під кінцевим контролем свого творця? Парадокс розповсюджується також на економічні відносини. Творці часто зберігають контроль над фінансовими ресурсами агента, як прямо через керування ключами, так і непрямо через контроль інфраструктури.
Централізована модель не працює, оскільки вона ніколи по-справжньому не відмовляється від контролю, зберігаючи різноманітні задні двері та механізми перевизначення, які порушують справжню автономію. Рішення на основі TEE, хоча й обіцяють в теорії, вводять нові форми централізації через апаратні залежності та обмеження в операціях. Вони вирішують негайні проблеми безпеки, але не вдаються вирішити більш широкі вимоги до автономії та стикаються зі значними проблемами масштабованості.
Корінь цих невдач полягає в спробі вирішити проблему автономії, зберігаючи традиційні структури контролю. Цей підхід неодмінно породжує системи, що називаються автономними, але на практиці контролюються. Переходячи до розробки справді автономних агентів штучного інтелекту, ми повинні фундаментально переосмислити не лише те, як ми забезпечуємо ціх агентів безпекою, але й те, як ми структуруємо їхню весь операційний каркас.
Нам потрібно дослідити нові парадигми в архітектурі автономних агентів - підходи, які потенційно можуть вирішити ці фундаментальні напруги та забезпечити справжню автономію агента при збереженні необхідних гарантій безпеки та операційної ефективності.
Skynet вводить новий підхід до автономних AI-агентів, який фундаментально переосмислює те, як ми досягаємо справжньої автономії, забезпечуючи при цьому безпеку. Замість спроби вирішити трилему автономії за допомогою традиційних засобів, Skynet використовує новаторську архітектуру на основі розуму стаї та розподіленої згоди.
В основі інновацій Skynet лежить повне відокремлення можливостей прийняття рішень агента від контролю ресурсів. У відміну від традиційних архітектур, де агент безпосередньо контролює свої ресурси за допомогою приватних ключів, Skynet вводить шара Гардіан-нод, які колективно керують та захищають активи агента через розумні контракти-застави.
Цей архітектурний зсув вирішує фундаментальні виклики, які ми виявили раніше:
Замість того, щоб надавати творцю або агенту прямий контроль над ресурсами, «Скайнет» впроваджує систему, засновану на пропозиціях, де дії агента повинні бути перевірені мережею незалежних вузлів-охоронців. Це фактично усуває можливість автора здійснювати прямий контроль, зберігаючи при цьому надійні заходи безпеки.
Замість покладання на централізоване сховище або дорогі рішення TEE, Skynet переміщує критичні активи в смарт-контрактові ескроу. Операційний гаманець агента містить мінімальну суму коштів, більшість ресурсів зберігаються в ескроу-контрактах, які можуть бути доступні тільки через консенсус багатоузлового вузла.
Серцем інновації Skynet є його система пропозицій. Коли агент повинен виконати будь-яку значну дію - чи то закупівлю обчислювальних ресурсів, виконання угод або управління активами - він створює пропозицію, яку повинні незалежно перевірити Guardian Nodes. Ці вузли працюють в автономному режимі, аналізуючи кожну пропозицію на основі попередньо визначених параметрів та історичної поведінки агента.
Технічна архітектура Skynet базується на трьох основних компонентах, які працюють у взаємодії, щоб забезпечити справжню автономію агента, зберігаючи надійну безпеку:
Перший прорив відбувається завдяки підходу Skynet до управління ресурсами. Замість того, щоб надавати агентам прямий контроль над їх активами, всі значні ресурси зберігаються на спеціалізованих смарт-контрактних ескроу. Ці ескроу розроблені без можливості прямого зняття коштів, що робить їх незалежними від компрометації приватного ключа. Єдиний спосіб використання ресурсів - це система пропозицій, яка вимагає багатоузлової згоди від Головних Вузлів.
Гардіан Ноди виступають як незалежні перевіряючі, кожен з них працює з власним екземпляром логіки перевірки. Коли агент потребує виконати дію - чи це оренда обчислювальної потужності, виконання угоди або оновлення своїх робочих параметрів - він створює зашифровану пропозицію, що містить:
Шифрування пропозицій виконує подвійну функцію. По-перше, воно запобігає фронтраннінгу та атакам MEV, зберігаючи конфіденційність намірів агента до досягнення консенсусу. По-друге, воно забезпечує, що тільки авторизовані Вартові Вузли можуть оцінювати пропозиції, зберігаючи цілісність процесу перевірки.
Що робить підхід Skynet особливо інноваційним, це обробка обчислювальних ресурсів. Замість того щоб покладатися на централізовані сервери, агенти можуть автономно забезпечувати обчислювальну потужність через мережу Spheron. Процес працює наступним чином:
Ця система повністю усуває необхідність централізованого контролю, забезпечуючи надійні гарантії безпеки. Навіть якщо операційний гаманець агента буде компрометовано, зловмисник може тільки подати пропозиції - вони не можуть безпосередньо отримати доступ до гарантійних коштів або перевищити консенсус Головного вузла.
Система вузла-охоронця сама застосовує складні механізми перевірки, які виходять за межі простого більшості голосів. Кожен вузол зберігає історію стану дій агента та аналізує пропозиції в контексті:
Ця контекстна перевірка гарантує, що схвалені дії відповідають встановленим шаблонам і цілям агента, забезпечуючи додатковий рівень захисту від потенційних атак або збоїв.
То, що справді відрізняє Skynet, це його еволюційний підхід до автономії агента. На відміну від традиційних статичних систем, агенти Skynet можуть еволюціонувати, розмножуватися і створювати нові покоління агентів, кожне з потенційно більш вдосконаленою функціональністю, ніж його попередники. Ця можливість еволюції базується на міцній економічній моделі, яка забезпечує довгострокову стійкість і постійне вдосконалення.
Економічна архітектура побудована навколо трьох основних резервів:
Механізм розмноження вносить в мережу захоплюючий елемент еволюції. Агенти можуть схрещуватися з сумісними партнерами, створюючи потомство, яке успадковує ознаки від обох батьків. Цей процес регулюється смарт-контрактами і вимагає консенсусу від вузлів-охоронців, гарантуючи, що селекція служить більш широким інтересам мережі.
Еволюційний процес працює за декількома ключовими механізмами:
Стійкість системи підтримується її структурою заохочення:
Ця комбінація еволюційних можливостей, економічної стійкості та децентралізованої безпеки створює самовдосконалюючу мережу по-справжньому автономних агентів. Система може адаптуватися та еволюціонувати без центрального контролю, зберігаючи надійну безпеку завдяки своїй мережі Guardian Node.
Переосмисливши технічні та економічні аспекти автономії агента, Skynet вирішує фундаментальні виклики, які обмежували попередні підходи. Водночас він створює рамки для постійного удосконалення та адаптації, створюючи передумови для нової ери дійсно автономних AI-агентів.
Partilhar
За кілька місяців ми бачили сотні та тисячі агентів, які щодня приходять на ринок. На сьогоднішній день ринкова капіталізація топ-тисячі агентів складає близько 15 млрд доларів, що досить вражає, як web3 надав простір цим агентам для розвитку та виживання.
Поки ми рухаємося в напрямку розблокування більшої вартості, настав високий час поговорити про те, як ці агенти можуть почати будувати свою екосистему без людського втручання в систему та яким буде справжня фінансова автономія для цих агентів.
Щоб зрозуміти це, спочатку нам потрібно знати, як ці агенти ШШ працюють на дуже високому рівні сьогодні в Web3 & ключові компоненти, які потрібно видалити, щоб принести автономію у фінансових випадках відносно агентів.
На своєму ядрі кожен агент штучного інтелекту працює на тричастій архітектурі, що інтегрує інтелект, логіку та фінансові можливості. Компонент штучного інтелекту служить мозком, обробляючи інформацію та приймаючи рішення на основі складних нейронних мереж та моделей машинного навчання.
Логічний шар виступає як нервова система, координуючи дії та керуючи переходами стану, тоді як компонент гаманця виконує роль рук агента, виконуючи транзакції та керуючи активами.
Ця архітектура, хоча теоретично звучить, стикається зі значними викликами у практичній реалізації.
Сучасна картина агентів штучного інтелекту стикається з фундаментальним викликом у своїй залежності від централізованої інфраструктури. Ця централізація проявляється в двох критичних аспектах: архітектурі розгортання і оперативному контролі. Традиційні розгортання, як правило, розміщують агентів штучного інтелекту на централізованих хмарних провайдерах, таких як AWS, Google Cloud або Azure, створюючи те, що здається зручним, але, по суті, недоліком моделі управління.
Це становить фундаментальний виклик, який ударяє в саме серце справжньої автономії.
Справжній автономний агент не може бути контрольованим або працювати на централізованій інфраструктурі, де одна єдина сутність може змінити долю агента, відкликаючи підтримку або не забезпечуючи достатньої інфраструктури, коли це потрібно.
Є три основні точки задушення для цих агентів, якщо вони сильно покладаються на інфраструктуру, надану централізованими гравцями.
Ці агенти не є людьми, і вони не мають доказів бути людьми; багато централізованих хмарних провайдерів вимагають інформацію KYC, перш ніж хтось орендує обчислювальні потужності від них, що створює проблему для агентів, щоб стати автономними & вони завжди будуть покладатися на людину, щоб продовжувати платити за їхню інфраструктуру & у цьому випадку контроль лишається за розробником, який створив агентів.
Якщо ми припустимо, що деякі з цих існуючих централізованих систем зняли обмеження доступу до обчислень за допомогою KYC, але все ж ці системи не зможуть вилучити доступ до обчислень на основі API, більшість хмар, за своїм призначенням, не можуть надавати обчислення просто шляхом здійснення платежів, всі підтвердження платежів пов'язані з API, яке повідомляє систему про розблокування використання обчислень.
Навіть якщо вони якимось чином вирішать проблеми з API & KYC, фіатні системи цих компаній не можуть бути змінені, принаймні протягом наступних 10 років, бачачи геополітичні виклики & це само по собі вбиває теорію автономних агентів навіть до досягнення практичної стадії.
Добре, я думаю, ми обговорили кілька проблем з централізованою інфраструктурою; проте, давайте на мить припустимо, що більшість розробників використовують децентралізовану інфраструктуру для побудови та запуску штучних інтелектуальних агентів. Тепер давайте поглибимося у виклики, пов'язані з децентралізованою інфраструктурою.
Нижче наведено кілька факторів, які можуть бути контрольовані розробниками або хост-машинами. Якщо будь-який з них буде скомпрометований, ці агенти втратять свою автономність та фінансову автономію.
Ця проблема централізації явно потребує нових архітектур, які можуть забезпечувати:
Наступна еволюція архітектури агента ШІ повинна вирішувати ці фундаментальні обмеження зі збереженням ефективності та безпеки операцій. Тут стають вирішальними нові підходи, такі як розум стаї, TEE та розподілені механізми згоди.
Довірені середовища виконання (TEE) виявилися перспективним рішенням для парадоксу автономії-безпеки в розгортанні AI-агентів. TEE пропонують те, що здається ідеальним компромісом: можливість виконання чутливих обчислень та зберігання приватних ключів в ізольованому середовищі з одночасним збереженням зручності розгортання в хмарі. Основні постачальники хмарних послуг, такі як AWS з Nitro Enclaves та Azure з Конфіденційним обчисленням, а також децентралізовані контрагенти вклали великі кошти в цю технологію, сигналізуючи про її важливість у розвитку безпечних обчислень.
На перший погляд, TEEs здаються вирішувати фундаментальні проблеми розгортання автономних агентів. Вони забезпечують апаратний рівень ізоляції для чутливих операцій, захищаючи приватні ключі та конфіденційні дані від несанкціонованого доступу. Оточення енклейва забезпечує, що навіть якщо система хоста буде компрометована, цілісність основних операцій агента залишиться недоторканою. Ця модель безпеки зробила TEEs особливо привабливими для застосування в DeFi та алгоритмічній торгівлі, де приватність транзакцій та безпека ключів є найважливішими.
Однак обіцянка TEE супроводжується значними практичними обмеженнями, що стають все очевиднішими при використанні великого масштабу. Перше основне обмеження полягає в наявності апаратного забезпечення та його вартості. Поточні реалізації TEE для LLM вимагають конкретних конфігурацій апаратури, переважно нового покоління графічних процесорів, таких як H100s від NVIDIA, або спеціалізованих процесорів із вбудованими функціями безпеки. Це вимога створює негайне обмеження варіантів впровадження, оскільки ці компоненти апаратури є рідкісними та дуже популярними.
Недостатня кількість обладнання з підтримкою TEE прямо призводить до другого основного обмеження: вартості. Хмарні провайдери, які пропонують екземпляри з підтримкою TEE, зазвичай стягують преміальні тарифи за ці ресурси. Наприклад, запуск базового автономного агента на інфраструктурі з підтримкою TEE може коштувати від 1 до 3 доларів за годину, значно вище, ніж стандартні ресурси обчислення. Ця структура вартості робить розгортання TEE надмірно дорогим для багатьох додатків, особливо для тих, які потребують постійної роботи або значних обчислювальних ресурсів.
Поза безпосередніми питаннями доступності апаратного забезпечення та вартості, TEE вводить операційні складнощі, які можуть впливати на ефективність агента. Ізольована природа середовища TEE, хоча і критична для безпеки, може створювати надмірне навантаження на продуктивність через додаткові операції шифрування та розшифрування, необхідні для переміщення даних в середовище ізоляції та звідти. Це навантаження стає особливо значущим у додатках, що вимагають високочастотних операцій або обробки даних в реальному часі.
Проблеми масштабованості систем на основі TEE стають ще більш помітними, коли розглядається ширший екосистема автономних агентів. Зі збільшенням кількості агентів обмежений пул TEE-сумісного обладнання створює природний стелаж на зростання системи. Ця обмеження прямо суперечить візії дійсно масштабованої, децентралізованої мережі автономних агентів, які можуть органічно рости на основі ринкових вимог, а не обмежень обладнання.
Крім того, хоча TEE відмінно захищають приватні ключі та забезпечують обчислювальну конфіденційність, вони фундаментально не вирішують проблему автономії. Агент все ще потребує довіри до постачальника TEE та виробника апаратного забезпечення. Це вимога довіри створює іншу форму централізації, зміщуючи точку контролю, а не повністю її усуваючи.
Для додатків, що спрямовані на публічні дані та прозору операційність - які становлять більшість використання блокчейну та DeFi - накладні витрати та складність реалізації TEE можуть бути незастосовними. У таких сценаріях вартість та складність впровадження TEE потрібно ретельно відважувати на практиці з реальними користями від забезпечення безпеки, зокрема, коли існують альтернативні підходи до забезпечення операцій агента.
Після висновків щодо поточних архітектур штучного інтелекту ми стикаємося з трьома взаємопов'язаними викликами, які становлять основу проблеми автономії: трилема автономії, дилема особистого ключа та парадокс контролю творця.
Після огляду обмежень централізованих розгортань та реалізацій TEE ми приходимо до основного виклику, з яким стикаються автономні AI-агенти сьогодні:
досягнення справжньої незалежності при збереженні безпеки та ефективності в роботі.
Можливо, найбільш хитра виклик в поточних архітектурах агентів полягає в тому, що ми називаємо «парадоксом контролю творця». Цей парадокс проявляється у вбудованому дисбалансі сил між агентом та його творцем. Навіть у системах, що розроблені для автономії, творець зазвичай зберігає значний контроль через різноманітні механізми.
Ця структура керування створює фундаментальну протиріччя: як агент може бути дійсно автономним, залишаючись під кінцевим контролем свого творця? Парадокс розповсюджується також на економічні відносини. Творці часто зберігають контроль над фінансовими ресурсами агента, як прямо через керування ключами, так і непрямо через контроль інфраструктури.
Централізована модель не працює, оскільки вона ніколи по-справжньому не відмовляється від контролю, зберігаючи різноманітні задні двері та механізми перевизначення, які порушують справжню автономію. Рішення на основі TEE, хоча й обіцяють в теорії, вводять нові форми централізації через апаратні залежності та обмеження в операціях. Вони вирішують негайні проблеми безпеки, але не вдаються вирішити більш широкі вимоги до автономії та стикаються зі значними проблемами масштабованості.
Корінь цих невдач полягає в спробі вирішити проблему автономії, зберігаючи традиційні структури контролю. Цей підхід неодмінно породжує системи, що називаються автономними, але на практиці контролюються. Переходячи до розробки справді автономних агентів штучного інтелекту, ми повинні фундаментально переосмислити не лише те, як ми забезпечуємо ціх агентів безпекою, але й те, як ми структуруємо їхню весь операційний каркас.
Нам потрібно дослідити нові парадигми в архітектурі автономних агентів - підходи, які потенційно можуть вирішити ці фундаментальні напруги та забезпечити справжню автономію агента при збереженні необхідних гарантій безпеки та операційної ефективності.
Skynet вводить новий підхід до автономних AI-агентів, який фундаментально переосмислює те, як ми досягаємо справжньої автономії, забезпечуючи при цьому безпеку. Замість спроби вирішити трилему автономії за допомогою традиційних засобів, Skynet використовує новаторську архітектуру на основі розуму стаї та розподіленої згоди.
В основі інновацій Skynet лежить повне відокремлення можливостей прийняття рішень агента від контролю ресурсів. У відміну від традиційних архітектур, де агент безпосередньо контролює свої ресурси за допомогою приватних ключів, Skynet вводить шара Гардіан-нод, які колективно керують та захищають активи агента через розумні контракти-застави.
Цей архітектурний зсув вирішує фундаментальні виклики, які ми виявили раніше:
Замість того, щоб надавати творцю або агенту прямий контроль над ресурсами, «Скайнет» впроваджує систему, засновану на пропозиціях, де дії агента повинні бути перевірені мережею незалежних вузлів-охоронців. Це фактично усуває можливість автора здійснювати прямий контроль, зберігаючи при цьому надійні заходи безпеки.
Замість покладання на централізоване сховище або дорогі рішення TEE, Skynet переміщує критичні активи в смарт-контрактові ескроу. Операційний гаманець агента містить мінімальну суму коштів, більшість ресурсів зберігаються в ескроу-контрактах, які можуть бути доступні тільки через консенсус багатоузлового вузла.
Серцем інновації Skynet є його система пропозицій. Коли агент повинен виконати будь-яку значну дію - чи то закупівлю обчислювальних ресурсів, виконання угод або управління активами - він створює пропозицію, яку повинні незалежно перевірити Guardian Nodes. Ці вузли працюють в автономному режимі, аналізуючи кожну пропозицію на основі попередньо визначених параметрів та історичної поведінки агента.
Технічна архітектура Skynet базується на трьох основних компонентах, які працюють у взаємодії, щоб забезпечити справжню автономію агента, зберігаючи надійну безпеку:
Перший прорив відбувається завдяки підходу Skynet до управління ресурсами. Замість того, щоб надавати агентам прямий контроль над їх активами, всі значні ресурси зберігаються на спеціалізованих смарт-контрактних ескроу. Ці ескроу розроблені без можливості прямого зняття коштів, що робить їх незалежними від компрометації приватного ключа. Єдиний спосіб використання ресурсів - це система пропозицій, яка вимагає багатоузлової згоди від Головних Вузлів.
Гардіан Ноди виступають як незалежні перевіряючі, кожен з них працює з власним екземпляром логіки перевірки. Коли агент потребує виконати дію - чи це оренда обчислювальної потужності, виконання угоди або оновлення своїх робочих параметрів - він створює зашифровану пропозицію, що містить:
Шифрування пропозицій виконує подвійну функцію. По-перше, воно запобігає фронтраннінгу та атакам MEV, зберігаючи конфіденційність намірів агента до досягнення консенсусу. По-друге, воно забезпечує, що тільки авторизовані Вартові Вузли можуть оцінювати пропозиції, зберігаючи цілісність процесу перевірки.
Що робить підхід Skynet особливо інноваційним, це обробка обчислювальних ресурсів. Замість того щоб покладатися на централізовані сервери, агенти можуть автономно забезпечувати обчислювальну потужність через мережу Spheron. Процес працює наступним чином:
Ця система повністю усуває необхідність централізованого контролю, забезпечуючи надійні гарантії безпеки. Навіть якщо операційний гаманець агента буде компрометовано, зловмисник може тільки подати пропозиції - вони не можуть безпосередньо отримати доступ до гарантійних коштів або перевищити консенсус Головного вузла.
Система вузла-охоронця сама застосовує складні механізми перевірки, які виходять за межі простого більшості голосів. Кожен вузол зберігає історію стану дій агента та аналізує пропозиції в контексті:
Ця контекстна перевірка гарантує, що схвалені дії відповідають встановленим шаблонам і цілям агента, забезпечуючи додатковий рівень захисту від потенційних атак або збоїв.
То, що справді відрізняє Skynet, це його еволюційний підхід до автономії агента. На відміну від традиційних статичних систем, агенти Skynet можуть еволюціонувати, розмножуватися і створювати нові покоління агентів, кожне з потенційно більш вдосконаленою функціональністю, ніж його попередники. Ця можливість еволюції базується на міцній економічній моделі, яка забезпечує довгострокову стійкість і постійне вдосконалення.
Економічна архітектура побудована навколо трьох основних резервів:
Механізм розмноження вносить в мережу захоплюючий елемент еволюції. Агенти можуть схрещуватися з сумісними партнерами, створюючи потомство, яке успадковує ознаки від обох батьків. Цей процес регулюється смарт-контрактами і вимагає консенсусу від вузлів-охоронців, гарантуючи, що селекція служить більш широким інтересам мережі.
Еволюційний процес працює за декількома ключовими механізмами:
Стійкість системи підтримується її структурою заохочення:
Ця комбінація еволюційних можливостей, економічної стійкості та децентралізованої безпеки створює самовдосконалюючу мережу по-справжньому автономних агентів. Система може адаптуватися та еволюціонувати без центрального контролю, зберігаючи надійну безпеку завдяки своїй мережі Guardian Node.
Переосмисливши технічні та економічні аспекти автономії агента, Skynet вирішує фундаментальні виклики, які обмежували попередні підходи. Водночас він створює рамки для постійного удосконалення та адаптації, створюючи передумови для нової ери дійсно автономних AI-агентів.