У нашому попередньому пості ми досліджували Історія дизайну додатківУ частині 1 нашої другої серії дописів про Agentic AI ми розглядаємо поточний ландшафт штучного інтелекту Web2 та його ключові тенденції, платформи та технології. У частині 2 ми досліджуємо, як блокчейн та безвідмовна перевірка дозволяють розвиток AI-агентів у справжні агентичні системи.
Рисунок 1. E2B Web2 AI Ландшафт агента.
Сучасний ландшафт штучного інтелекту переважно характеризується централізованими платформами та сервісами, які контролюються великими технологічними компаніями. Компанії, такі як OpenAI, Anthropic, Google та Microsoft, надають великі мовні моделі (LLM) та підтримують важливу хмарну інфраструктуру та API-сервіси, які живлять більшість агентів штучного інтелекту.
Останні досягнення в інфраструктурі штучного інтелекту фундаментально змінили спосіб, яким розробники створюють агентів штучного інтелекту. Замість кодування конкретних взаємодій, розробники тепер можуть використовувати природну мову для визначення поведінки та цілей агента, що призводить до більш адаптивних та складних систем.
Рисунок 2. Інфраструктура сегментації штучного інтелекту.
Ключові досягнення в наступних областях призвели до поширення штучних інтелектуальних агентів:
figure_3_ai_business_models1920×1080 178 КБ
Фігура 3. Моделі бізнесу штучного інтелекту.
Традиційні компанії зі штучним інтелектом Web2 в основному використовують багаторівневі підписки та консалтингові послуги як свої бізнес-моделі.
Нові бізнес-моделі для агентів зі штучним інтелектом включають:
Хоча нинішні системи штучного інтелекту Web2 відкрили нову еру технологій та ефективності, вони стикаються з кількома проблемами.
Основні обмеження Web2 AI — централізація, володіння даними та прозорість — усуваються за допомогою блокчейну та токенізації. Web3 пропонує такі рішення:
Стеки агентів штучного інтелекту Web2 та Web3 мають спільні основні компоненти, такі як координація моделей та ресурсів, інструменти та інші послуги, а також системи пам'яті для збереження контексту. Однак включення Web3 технологій блокчейну дозволяє децентралізувати обчислювальні ресурси, токени для стимулювання обміну даними та власності користувачів, виконання без довіри за допомогою смарт-контрактів і початкові координаційні мережі.
figure_4_web3_ai_agent_stack1920×3627 407 KB
Малюнок 4. Стек агентів Web3 зі штучним інтелектом.
Рівень даних є основою стека агентів Web3 AI і охоплює всі аспекти даних. Він включає джерела даних, відстеження походження та перевірку автентичності, системи маркування, інструменти аналізу даних для аналітики та досліджень, а також рішення для зберігання різних потреб у збереженні даних.
Шар обчислення забезпечує інфраструктуру обробки, необхідну для виконання операцій штучного інтелекту. Обчислювальні ресурси можуть бути розподілені на кілька категорій відстані: інфраструктура для навчання розвитку моделі, системи виведення для виконання моделі та операцій агента, та розподілене обчислення для місцевої децентралізованої обробки.
Розподілені обчислювальні ресурси усувають залежність від централізованих хмарних мереж і підвищують безпеку, зменшують проблему єдиної точки відмови та дозволяють меншим компаніям зі штучним інтелектом використовувати надлишкові обчислювальні ресурси.
1.Підготовка. Навчання моделей штучного інтелекту є обчислювально дорогим і інтенсивним. Децентралізовані навчальні комп'ютери демократизують розробку штучного інтелекту, підвищуючи конфіденційність і безпеку, оскільки конфіденційні дані можуть оброблятися локально без централізованого контролю.
Bittensor та Мережа Golemце децентралізовані ринки ресурсів для тренування штучного інтелекту.Akash Network та Фалазабезпечувати децентралізовані обчислювальні ресурси з TEEs.Рендер мережіперепризначений свою графічну мережу GPU для забезпечення обчислень для завдань штучного інтелекту.
2. Умовивід. Обчислення логічного висновку — це ресурси, необхідні моделям для генерації нового результату або програмам і агентам штучного інтелекту для роботи. Програми реального часу, які обробляють великі обсяги даних, або агенти, які вимагають кількох операцій, використовують більшу кількість обчислювальної потужності висновків.
Гіперболічний, Кінцевість, та Гіперпростірспецифічно пропонують обчислення інференції. Лабораторія інференціїКомпанія Omronє ринком виведення та перевірки обчислень на Bittensor. Децентралізовані обчислювальні мережі, такі як Bittensor, Golem Network, Akash Network, Phala та Render Network, пропонують як ресурси для навчання, так і ресурси для виведення.
3. Периферійні обчислення. Периферійні обчислення передбачають обробку даних локально на віддалених пристроях, таких як смартфони, пристрої IoT або локальні сервери. Периферійні обчислення дозволяють обробляти дані в режимі реального часу та зменшити затримку, оскільки модель і дані виконуються локально на одній машині.
Градієнтна мережаце мережа розподіленого обчислення на Solana.Edge Мережа, Theta Мережа, та AIOZдозволяти глобальне розподілене обчислення на краю.
Рівень верифікації та конфіденційності забезпечує цілісність системи та захист даних. Механізми консенсусу, докази з нульовим розголошенням (ZKP) і TEE використовуються для перевірки навчання моделі, висновків і виходів. FHE та TEE використовуються для забезпечення конфіденційності даних.
1. Перевірені обчислення. Верифіковані обчислення включають навчання моделей і висновок.
Phala та Мережа Atomaпоєднуйте TEE з перевіреною обчислюванням.Інферіумвикористовує комбінацію ZKPs та TEEs для перевірки виведення.
2. Вихідні докази. Вихідні докази підтверджують, що виведені моделі штучного інтелекту є автентичними і не були піддані втручанню без розголошення параметрів моделі. Вихідні докази також надають походження і є важливими для довіри до рішень агентів ШІ.
zkML та Мережа Ацтекобидва мають ZKP системи, які доводять цілісність обчислювального виводу.Устриці Марліннадає перевірне виконання штучного інтелекту через мережу TEEs.
3. Конфіденційність даних та моделей. FHE та інші криптографічні техніки дозволяють моделям обробляти зашифровані дані без розголошення чутливої інформації. Конфіденційність даних необхідна при роботі з особистою та чутливою інформацією, щоб зберегти анонімність.
Протокол Oasisнадає конфіденційне обчислення за допомогою TEE та шифрування даних.Частина Блокчейнувикористовує передове багатостороннє обчислення (MPC), щоб забезпечити конфіденційність даних штучного інтелекту.
Шар координації сприяє взаємодії між різними компонентами екосистеми штучного інтелекту Web3. Він включає ринки моделей для розподілу, навчання та інфраструктури для налаштування, а також мережі агентів для міжагентної комунікації та співпраці.
1. Модельні мережі. Модельні мережі призначені для спільного використання ресурсів для розробки моделей штучного інтелекту.
2.Навчання / Тонке Налаштування. Мережі навчання спеціалізуються на розподілі та управлінні навчальними наборами даних. Мережі тонкого налаштування зосереджені на інфраструктурних рішеннях для підвищення зовнішніх знань моделі через RAGs (Retrieval Augmented Generation) та API.
Bittensor, Akash Network та Golem Network пропонують мережі для навчання та налаштування.
3. Агентські мережі. Агентські мережі надають дві основні послуги для штучних інтелектуальних агентів: 1) інструменти та 2) пускові майданчики для агентів. Інструменти включають підключення до інших протоколів, стандартизовані користувацькі інтерфейси та зв'язок з зовнішніми службами. Пускові майданчики для агентів дозволяють легке розгортання та управління штучними інтелектуальними агентами.
Theoriqвикористовує агентські рої для створення рішень з торгівлі DeFi. Virtuals - провідний запусковий пульт штучного інтелекту на Base.Eliza OSбула першою відкритою мережею моделей LLM.Alpaca Network та Мережа Оласце платформи штучного інтелекту, що належать спільноті.
Рівень «Послуги» надає необхідне проміжне програмне забезпечення та інструменти, необхідні програмам і агентам штучного інтелекту для ефективної роботи. Цей рівень включає інструменти розробки, API для інтеграції зовнішніх даних і додатків, системи пам'яті для збереження контексту агента, Retrieval-Augmented Generation (RAG) для розширеного доступу до знань та інфраструктуру тестування.
Прикладний рівень знаходиться у верхній частині стека штучного інтелекту та представляє рішення, орієнтовані на кінцевого користувача. Сюди входять агенти, які вирішують такі випадки використання, як управління гаманцем, безпека, продуктивність, прибуток, ринки прогнозування, системи управління та інструменти DeFAI.
У цілому ці застосунки сприяють створенню безпечних, прозорих та децентралізованих екосистем штучного інтелекту, пристосованих до потреб Web3.
Еволюція від систем штучного інтелекту Web2 до Web3 є фундаментальною зміною в тому, як ми підходимо до розробки та розгортання штучного інтелекту. Хоча централізована інфраструктура штучного інтелекту Web2 сприяла величезним інноваціям, вона стикається зі значними проблемами щодо конфіденційності даних, прозорості та централізованого контролю. Стек Web3 AI демонструє, як децентралізовані системи можуть вирішити ці обмеження за допомогою DAO даних, децентралізованих обчислювальних мереж і систем верифікації без довіри. Можливо, найважливішим є те, що стимули токенів створюють нові координаційні механізми, які можуть допомогти завантажити та підтримувати ці децентралізовані мережі.
Опираючись на майбутнє, зростання AI агентів представляє наступний фронт у цьому еволюційному процесі. Як ми дослідимо у наступній статті, AI агенти - від простих завдань до складних автономних систем - стають все більш вдосконаленими та здатними. Інтеграція цих агентів з інфраструктурою Web3, поєднана з уважним врахуванням технічної архітектури, економічних стимулів та структур управління, має потенціал створити більш справедливі, прозорі та ефективні системи, ніж це було можливо в епоху Web2. Розуміння того, як працюють ці агенти, їх різні рівні складності та розрізнення між AI агентами та по-справжньому агентичним AI буде вирішальним для кожного, хто працює на перетині AI та Web3.
У нашому попередньому пості ми досліджували Історія дизайну додатківУ частині 1 нашої другої серії дописів про Agentic AI ми розглядаємо поточний ландшафт штучного інтелекту Web2 та його ключові тенденції, платформи та технології. У частині 2 ми досліджуємо, як блокчейн та безвідмовна перевірка дозволяють розвиток AI-агентів у справжні агентичні системи.
Рисунок 1. E2B Web2 AI Ландшафт агента.
Сучасний ландшафт штучного інтелекту переважно характеризується централізованими платформами та сервісами, які контролюються великими технологічними компаніями. Компанії, такі як OpenAI, Anthropic, Google та Microsoft, надають великі мовні моделі (LLM) та підтримують важливу хмарну інфраструктуру та API-сервіси, які живлять більшість агентів штучного інтелекту.
Останні досягнення в інфраструктурі штучного інтелекту фундаментально змінили спосіб, яким розробники створюють агентів штучного інтелекту. Замість кодування конкретних взаємодій, розробники тепер можуть використовувати природну мову для визначення поведінки та цілей агента, що призводить до більш адаптивних та складних систем.
Рисунок 2. Інфраструктура сегментації штучного інтелекту.
Ключові досягнення в наступних областях призвели до поширення штучних інтелектуальних агентів:
figure_3_ai_business_models1920×1080 178 КБ
Фігура 3. Моделі бізнесу штучного інтелекту.
Традиційні компанії зі штучним інтелектом Web2 в основному використовують багаторівневі підписки та консалтингові послуги як свої бізнес-моделі.
Нові бізнес-моделі для агентів зі штучним інтелектом включають:
Хоча нинішні системи штучного інтелекту Web2 відкрили нову еру технологій та ефективності, вони стикаються з кількома проблемами.
Основні обмеження Web2 AI — централізація, володіння даними та прозорість — усуваються за допомогою блокчейну та токенізації. Web3 пропонує такі рішення:
Стеки агентів штучного інтелекту Web2 та Web3 мають спільні основні компоненти, такі як координація моделей та ресурсів, інструменти та інші послуги, а також системи пам'яті для збереження контексту. Однак включення Web3 технологій блокчейну дозволяє децентралізувати обчислювальні ресурси, токени для стимулювання обміну даними та власності користувачів, виконання без довіри за допомогою смарт-контрактів і початкові координаційні мережі.
figure_4_web3_ai_agent_stack1920×3627 407 KB
Малюнок 4. Стек агентів Web3 зі штучним інтелектом.
Рівень даних є основою стека агентів Web3 AI і охоплює всі аспекти даних. Він включає джерела даних, відстеження походження та перевірку автентичності, системи маркування, інструменти аналізу даних для аналітики та досліджень, а також рішення для зберігання різних потреб у збереженні даних.
Шар обчислення забезпечує інфраструктуру обробки, необхідну для виконання операцій штучного інтелекту. Обчислювальні ресурси можуть бути розподілені на кілька категорій відстані: інфраструктура для навчання розвитку моделі, системи виведення для виконання моделі та операцій агента, та розподілене обчислення для місцевої децентралізованої обробки.
Розподілені обчислювальні ресурси усувають залежність від централізованих хмарних мереж і підвищують безпеку, зменшують проблему єдиної точки відмови та дозволяють меншим компаніям зі штучним інтелектом використовувати надлишкові обчислювальні ресурси.
1.Підготовка. Навчання моделей штучного інтелекту є обчислювально дорогим і інтенсивним. Децентралізовані навчальні комп'ютери демократизують розробку штучного інтелекту, підвищуючи конфіденційність і безпеку, оскільки конфіденційні дані можуть оброблятися локально без централізованого контролю.
Bittensor та Мережа Golemце децентралізовані ринки ресурсів для тренування штучного інтелекту.Akash Network та Фалазабезпечувати децентралізовані обчислювальні ресурси з TEEs.Рендер мережіперепризначений свою графічну мережу GPU для забезпечення обчислень для завдань штучного інтелекту.
2. Умовивід. Обчислення логічного висновку — це ресурси, необхідні моделям для генерації нового результату або програмам і агентам штучного інтелекту для роботи. Програми реального часу, які обробляють великі обсяги даних, або агенти, які вимагають кількох операцій, використовують більшу кількість обчислювальної потужності висновків.
Гіперболічний, Кінцевість, та Гіперпростірспецифічно пропонують обчислення інференції. Лабораторія інференціїКомпанія Omronє ринком виведення та перевірки обчислень на Bittensor. Децентралізовані обчислювальні мережі, такі як Bittensor, Golem Network, Akash Network, Phala та Render Network, пропонують як ресурси для навчання, так і ресурси для виведення.
3. Периферійні обчислення. Периферійні обчислення передбачають обробку даних локально на віддалених пристроях, таких як смартфони, пристрої IoT або локальні сервери. Периферійні обчислення дозволяють обробляти дані в режимі реального часу та зменшити затримку, оскільки модель і дані виконуються локально на одній машині.
Градієнтна мережаце мережа розподіленого обчислення на Solana.Edge Мережа, Theta Мережа, та AIOZдозволяти глобальне розподілене обчислення на краю.
Рівень верифікації та конфіденційності забезпечує цілісність системи та захист даних. Механізми консенсусу, докази з нульовим розголошенням (ZKP) і TEE використовуються для перевірки навчання моделі, висновків і виходів. FHE та TEE використовуються для забезпечення конфіденційності даних.
1. Перевірені обчислення. Верифіковані обчислення включають навчання моделей і висновок.
Phala та Мережа Atomaпоєднуйте TEE з перевіреною обчислюванням.Інферіумвикористовує комбінацію ZKPs та TEEs для перевірки виведення.
2. Вихідні докази. Вихідні докази підтверджують, що виведені моделі штучного інтелекту є автентичними і не були піддані втручанню без розголошення параметрів моделі. Вихідні докази також надають походження і є важливими для довіри до рішень агентів ШІ.
zkML та Мережа Ацтекобидва мають ZKP системи, які доводять цілісність обчислювального виводу.Устриці Марліннадає перевірне виконання штучного інтелекту через мережу TEEs.
3. Конфіденційність даних та моделей. FHE та інші криптографічні техніки дозволяють моделям обробляти зашифровані дані без розголошення чутливої інформації. Конфіденційність даних необхідна при роботі з особистою та чутливою інформацією, щоб зберегти анонімність.
Протокол Oasisнадає конфіденційне обчислення за допомогою TEE та шифрування даних.Частина Блокчейнувикористовує передове багатостороннє обчислення (MPC), щоб забезпечити конфіденційність даних штучного інтелекту.
Шар координації сприяє взаємодії між різними компонентами екосистеми штучного інтелекту Web3. Він включає ринки моделей для розподілу, навчання та інфраструктури для налаштування, а також мережі агентів для міжагентної комунікації та співпраці.
1. Модельні мережі. Модельні мережі призначені для спільного використання ресурсів для розробки моделей штучного інтелекту.
2.Навчання / Тонке Налаштування. Мережі навчання спеціалізуються на розподілі та управлінні навчальними наборами даних. Мережі тонкого налаштування зосереджені на інфраструктурних рішеннях для підвищення зовнішніх знань моделі через RAGs (Retrieval Augmented Generation) та API.
Bittensor, Akash Network та Golem Network пропонують мережі для навчання та налаштування.
3. Агентські мережі. Агентські мережі надають дві основні послуги для штучних інтелектуальних агентів: 1) інструменти та 2) пускові майданчики для агентів. Інструменти включають підключення до інших протоколів, стандартизовані користувацькі інтерфейси та зв'язок з зовнішніми службами. Пускові майданчики для агентів дозволяють легке розгортання та управління штучними інтелектуальними агентами.
Theoriqвикористовує агентські рої для створення рішень з торгівлі DeFi. Virtuals - провідний запусковий пульт штучного інтелекту на Base.Eliza OSбула першою відкритою мережею моделей LLM.Alpaca Network та Мережа Оласце платформи штучного інтелекту, що належать спільноті.
Рівень «Послуги» надає необхідне проміжне програмне забезпечення та інструменти, необхідні програмам і агентам штучного інтелекту для ефективної роботи. Цей рівень включає інструменти розробки, API для інтеграції зовнішніх даних і додатків, системи пам'яті для збереження контексту агента, Retrieval-Augmented Generation (RAG) для розширеного доступу до знань та інфраструктуру тестування.
Прикладний рівень знаходиться у верхній частині стека штучного інтелекту та представляє рішення, орієнтовані на кінцевого користувача. Сюди входять агенти, які вирішують такі випадки використання, як управління гаманцем, безпека, продуктивність, прибуток, ринки прогнозування, системи управління та інструменти DeFAI.
У цілому ці застосунки сприяють створенню безпечних, прозорих та децентралізованих екосистем штучного інтелекту, пристосованих до потреб Web3.
Еволюція від систем штучного інтелекту Web2 до Web3 є фундаментальною зміною в тому, як ми підходимо до розробки та розгортання штучного інтелекту. Хоча централізована інфраструктура штучного інтелекту Web2 сприяла величезним інноваціям, вона стикається зі значними проблемами щодо конфіденційності даних, прозорості та централізованого контролю. Стек Web3 AI демонструє, як децентралізовані системи можуть вирішити ці обмеження за допомогою DAO даних, децентралізованих обчислювальних мереж і систем верифікації без довіри. Можливо, найважливішим є те, що стимули токенів створюють нові координаційні механізми, які можуть допомогти завантажити та підтримувати ці децентралізовані мережі.
Опираючись на майбутнє, зростання AI агентів представляє наступний фронт у цьому еволюційному процесі. Як ми дослідимо у наступній статті, AI агенти - від простих завдань до складних автономних систем - стають все більш вдосконаленими та здатними. Інтеграція цих агентів з інфраструктурою Web3, поєднана з уважним врахуванням технічної архітектури, економічних стимулів та структур управління, має потенціал створити більш справедливі, прозорі та ефективні системи, ніж це було можливо в епоху Web2. Розуміння того, як працюють ці агенти, їх різні рівні складності та розрізнення між AI агентами та по-справжньому агентичним AI буде вирішальним для кожного, хто працює на перетині AI та Web3.