«Твір мистецтва ніколи не завершується, лише залишається без продовження».
Усі говорять про AI Агентів, але те, що вони мають на увазі, не таке саме, що призводить до різного розуміння AI Агентів з нашої точки зору, громадськості та практиків AI.
Давно я писав, що Крипто - це ілюзія штучного інтелектуЗ того часу поєднання Крипто та ШШ зберігалося в односторонньому коханні. Практики ШШ рідко згадують про Web3 або блокчейн, тоді як прихильники Крипто глибоко зачаровані ШШ. Після того, як було свідчено феномен, коли навіть фреймворки ШШ Агента можуть бути токенізовані, невідомо, чи це дійсно зможе привернути практиків ШШ до нашого світу.
AI - агент Крипто. Це найкраща анотація з криптографічної перспективи для перегляду поточного розквіту ШІ. Ентузіазм Крипто до ШІ відрізняється від інших галузей; ми особливо сподіваємося інтегрувати емісію та експлуатацію фінансових активів з нею.
На своєму корінні AI Agent має принаймні три джерела. AGI (Штучний Загальний Інтелект) OpenAI вважає це важливим кроком, перетворюючи цей термін на популярне модне слово поза технічними колами. Однак, по суті, Агент - це не новий концепт. Навіть з підсиленням ШІ, важко сказати, що це революційний технологічний тренд.
Перший джерело - це AI Агент, як бачить його OpenAI. Подібно до рівня L3 в автономному водінні, AI Агент можна розглядати як обладнаний певними передовими можливостями допомоги, але ще не здатний повністю замінити людину.
Image caption Фаза планування OpenAI AGI
Джерело зображення: https://www.bloomberg.com/
Другим джерелом є AI Agent, як не важко здогадатися, це Агент, що має потужність AI. Концепція механізмів агентства та делегування не є новою у галузі обчислювальної техніки. Однак за візією OpenAI, Агент стане стадією L3 після розмовних форм (наприклад, ChatGPT) та форм мислення (наприклад, різні боти). Основною рисою цієї стадії є можливість «автономного виконання певних поведінкових реакцій», або, як визначив засновник LangChain Харрісон Чейс: «AI Agent - це система, яка використовує LLM (Large Language Model), щоб приймати рішення щодо керування процесом у програмі». \
Ось де це стає цікавим. До приходу LLMs агент переважно виконував процеси автоматизації, встановлені людьми. Наприклад, при проектуванні веб-скрейпера програмісти встановлювали User-Agent, щоб імітувати деталі, такі як версія браузера та операційна система, використовувана реальними користувачами. Якщо б для того, щоб точніше імітувати людську поведінку, був використаний AI-агент, це могло призвести до створення AI-агент-заснованої структури веб-скрейпера, що робить скрейпер "більш схожим на людину".
При таких переходах введення агентів штучного інтелекту повинно інтегруватися з існуючими сценаріями, оскільки абсолютно нових сфер практично не існує. Навіть можливості автоматичного завершення коду та генерації у таких інструментах, як Curosr та Github Copilot, є лише функціональними покращеннями в рамках LSP (Language Server Protocol) з численними прикладами подібної еволюції:
Для уточнення, у взаємодії людина-комп'ютер, поєднання інтерфейсу користувача Web 1.0 та браузерів дійсно дозволило громадськості використовувати комп'ютери без перешкод, що представлено поєднанням Windows та IE. API стали стандартом абстракції та передачі даних за інтернетом, і під час ери Web 2.0 з'явилися браузери, такі як Chrome, зі зміною мобільних звичок використання інтернету людьми. Супер-додатки, такі як WeChat та платформи Meta, тепер охоплюють всі аспекти життя людей.
Третє джерело - концепція «Намірів» в крипто-просторі, що призвела до зростання інтересу до AI Агентів. Однак, слід зазначити, що це застосовується лише в крипто-середовищі. Від Bitcoin-скриптів з обмеженою функціональністю до розумних контрактів Ethereum, сама концепція Агента широко використовується. Подальший виникнення міжланцюжкових мостів, абстракцій ланцюгів, EOA (зовнішньо власних облікових записів) до AA (абстракції облікових записів) гаманців - є природнім продовженням цього ряду міркувань. Тому, коли AI Агенти «вторгаються» в крипто-середовище, не дивно, що вони природно призводять до сценаріїв DeFi.
Ось де виникає плутанина навколо концепції агента штучного інтелекту. У контексті криптовалюти ми насправді намагаємося досягти «автоматичного фінансового управління, автоматичного створення мемів» агента. Однак, за визначенням OpenAI, такий ризикований сценарій потребує виконання L4 або L5. Тим часом громадськість експериментує з автоматичним генеруванням коду або допомогою в написанні, що не мають такого ж рівня, які ми прагнемо досягти.
Після того, як ми зрозуміємо, чого ми справді хочемо, ми зможемо сконцентруватися на організаційній логіці AI-агентів. Технічні деталі слідуватимуть, оскільки концепція AI-агента в кінцевому підсумку полягає в усуненні бар'єрів перед впровадженням технологій великого масштабу, схоже на те, як браузери революціонізували індустрію персональних ПК. Наша увага буде зосереджена на двох пунктах: розглядання AI-агентів з погляду взаємодії людина-комп'ютер та розуміння відмінностей і зв'язків між AI-агентами та LLMs, що приведе нас до третьої частини: на що в кінцевому підсумку піде поєднання Крипто та AI-агентів.
Перед моделями людино-комп'ютерної взаємодії, такими як ChatGPT, основними формами взаємодії людини і комп'ютера були GUI (графічний інтерфейс користувача) і CLI (інтерфейс командного рядка). Менталітет GUI еволюціонував у різні конкретні форми, такі як браузери та додатки, тоді як поєднання CLI і Shell зазнало мінімальних змін.
Але це лише «фронтенд» взаємодії людини і комп'ютера. З розвитком Інтернету збільшення обсягу і різноманітності даних призвело до більш «бекендових» взаємодій між даними та між додатками. Ці два аспекти залежать один від одного - навіть проста дія веб-перегляду фактично потребує їх співпраці.
Якщо взаємодію людини з браузерами та додатками вважати точкою входу користувача, то посилання та переходи між API підтримують фактичну роботу Інтернету. Насправді, це також частина Агента. Звичайним користувачам не потрібно розуміти такі терміни, як командний рядок та API, щоб досягти своїх цілей.
Те саме стосується LLMs. Тепер користувачі можуть йти ще далі - більше не потрібно шукати. Весь процес можна описати наступними кроками:
Можна виявити, що в цьому процесі найбільшим викликом є Google, оскільки користувачам не потрібно відкривати пошуковий двигун, а різні вікна діалогу, схожі на GPT, та вхід для трафіку тихо змінюються. Через це деякі люди вважають, що ця LLM революціонізує життя пошукових систем.
Так яку роль відіграє AI Agent в цьому процесі?
Коротко кажучи, AI Agent - це спеціалізоване розширення LLM.
Поточні LLM-и не є ШІ (штучний загальний інтелект) і далеко від L5 організатора, яким уявляє собі OpenAI. Їх можливості значно обмежені. Наприклад, LLM-и схильні до галюцинацій, якщо надати їм забагато вхідних даних користувача. Одна з основних причин полягає в механізмі навчання. Наприклад, якщо ви знову й знову кажете GPT, що 1+1=3, існує ймовірність, що він може відповісти 4, коли його запитають про 1+1+1=?.
Це стається через те, що відгуки GPT повністю походять від введення користувача. Якщо модель не підключена до Інтернету, існує можливість зміни її роботи через ваші введення, що призводить до моделі, яка лише "знає", що 1+1=3. Однак, якщо модель може підключитися до Інтернету, її механізм відгуку стає більш різноманітним, оскільки велика більшість онлайн-даних буде підтверджувати, що 1+1=2.
Тепер, що, якщо ми повинні використовувати LLM локально і хочемо уникнути таких проблем?
Простим рішенням є одночасне використання двох LLM, що вимагає від них перехресної перевірки відповідей один одного, щоб зменшити ймовірність помилок. Якщо цього недостатньо, інший підхід може полягати в тому, що двоє користувачів керують одним процесом — один задає питання, а інший уточнює їх — щоб зробити мову більш точною та логічною.
Звичайно, підключення до Інтернету не повністю усуває проблеми. Наприклад, якщо LLM отримує відповіді з ненадійних джерел, ситуація може погіршитися. Однак, уникнення таких даних зменшує кількість доступної інформації. Для вирішення цього, існуючі дані можуть бути розбиті, перерозподілені або навіть використані для генерації нових даних на основі старих наборів даних для забезпечення більш надійної відповіді. Цей підхід суттєво відображає концепцію RAG (Retrieval-Augmented Generation) у розумінні природної мови.
Люди та машини повинні розуміти одне одного. Коли кілька LLM співпрацюють та взаємодіють, ми, по суті, використовуємо операційну модель AI агентів. Вони служать як проксі-сервери людей, отримуючи доступ до інших ресурсів, включаючи великі моделі та інших агентів.
Це приводить нас до зв'язку між LLMs та AI Агентами:
LLMs - це агрегація знань, з якими люди взаємодіють через чат-інтерфейси. Однак на практиці певні конкретні робочі процеси можуть бути скорочені до менших програм, ботів або наборів інструкцій. Ці процеси визначаються як Агенти.
Агенти штучного інтелекту залишаються підмножиною LLM, але їх не слід ототожнювати з ними. Визначальна особливість AI Agents полягає в тому, що вони роблять акцент на співпраці із зовнішніми програмами, LLM та іншими агентами. Ось чому люди часто узагальнюють AI Agents як LLM + API.
Щоб проілюструвати це в робочому процесі LLM, давайте візьмемо приклад виклику API через AI Agent:
Пам'ятаєте еволюцію взаємодії людини з комп'ютером? Браузери, API та інші складові з Web 1.0 та Web 2.0 існують досі, але користувачам вже не потрібно взаємодіяти з ними безпосередньо. Замість цього вони можуть просто спілкуватися з AI-агентами. Виклики API та пов'язані процеси можуть бути проведені конверсаційно. Ці сервіси API можуть охоплювати будь-який тип даних, незалежно від того, чи є вони локальними, онлайн або зовнішніми додатками, якщо інтерфейси відкриті, а користувачі мають необхідні дозволи для доступу до них.
Повний робочий процес AI Agent, як показано вище, розглядає LLM як окремий компонент від AI Agent або як два підпроцеси в одному робочому процесі. Незалежно від того, як вони розділені, метою завжди є задоволення потреб користувачів. З точки зору взаємодії людини з комп'ютером це може навіть виглядати так, ніби користувачі розмовляють з собою. Вам потрібно лише повністю виразити свої думки, і AI/LLM/AI Agent буде постійно вгадувати ваші потреби. Інтегруючи засоби зворотнього зв'язку та забезпечуючи, що LLM пам'ятає поточний контекст, AI Agent уникає втрати свого завдання.
Загалом, AI Агенти є більш персоналізованими та гуманізованими створеннями, що відрізняє їх від традиційних сценаріїв та засобів автоматизації. Вони діють як особисті помічники, враховуючи реальні потреби користувача. Однак важливо зазначити, що ця персоналізація все ще базується на ймовірнісній інференції. AI Агент рівня L3 не має можливостей розуміння та виразності на рівні людини, що робить його інтеграцію з зовнішніми API неабияк ризикованою.
Можливість монетизувати фреймворки ШІ є однією з основних причин, чому я залишаюся зацікавленим у криптовалюті. У традиційних стеках технологій ШІ фреймворки не є особливо важливими, принаймні не порівняно з даними та обчислювальною потужністю. Монетизація продуктів ШІ рідко починається з фреймворку, оскільки більшість алгоритмів та модельних фреймворків ШІ є відкритими. Що залишається пропрієтарним, це конфіденційні елементи, такі як дані.
Основними складовими фреймворків або моделей штучного інтелекту є алгоритми, схожі на горщик для тушкованої гуся. Однак, якість гуся та вміння готувати - ось що справді визначає смак. У теорії, продуктом для продажу повинен бути гусь, але споживачі Web3, здається, віддають перевагу купівлі горщика, відкидаючи гуся.
Причина цього нескладна. Більшість продуктів штучного інтелекту Web3 ґрунтуються на існуючих фреймворках, алгоритмах та продуктах штучного інтелекту, налаштовуючи їх для своїх потреб. Фактично, технічні принципи різних крипто AI фреймворків не є значно відмінними. Оскільки сама технологія не має відмінностей, увага переключається на брендування, сценарії застосування та інші поверхневі відмінності. В результаті навіть незначні зміни у фреймворку штучного інтелекту стають основою для підтримки різних токенів, що призводить до утворення бульбашки фреймворку в екосистемах крипто AI Агентів.
Оскільки немає потреби в значних вкладеннях у тренувальні дані або алгоритми, особливо важливо відрізняти фреймворки за назвою. Навіть доступний фреймворк, такий як DeepSeek V3, все ще вимагає значних витрат на електроенергію, потужність GPU та зусилля.
У певному сенсі це узгоджується з нещодавньою тенденцією Web3: платформи, що випускають токени, часто цінніші, ніж самі токени. Такі проекти, як Pump.Fun і Hyperliquid, є прикладом цього. Спочатку агенти повинні були представляти додатки та активи, але фреймворки, що видають агентів, тепер стали найпопулярнішим товаром.
Це відображає форму якості якості. Оскільки агенти не мають різниці, фреймворки для видачі агентів стають більш стабільними і створюють ефект відціджування вартості для емісії активів. Це позначає 1.0 версію інтеграції крипти та штучних інтелектуальних агентів.
Зараз з'являється версія 2.0, прикладом якої є конвергенція агентів DeFi та AI. Хоча концепція DeFAI, можливо, була викликана ажіотажем на ринку, більш глибокий погляд на наступні тенденції свідчить про протилежне:
В цьому контексті трансформації DeFi, штучний інтелект переписує основну логіку DeFi. Раніше основна логіка DeFi полягала у перевірці можливості розумних контрактів. Тепер агенти штучного інтелекту змінюють логіку виробництва DeFi. Ви більше не мусите розуміти DeFi, щоб створювати продукти DeFi. Це означає крок поза абстракцію ланцюга, надаючи глибшу основну емповермент.
Ера, коли кожен може бути програмістом, на горизонті. Складні обчислення можна аутсорсити до LLM та API за допомогою штучних інтелектуальних агентів, що дозволяє людям зосередитися виключно на своїх ідеях. Природну мову можна ефективно перетворити на програмну логіку.
У цій статті не згадується жоден Крипто AI Agent токенів або фреймворків, оскільки Cookie.Fun вже зробив відмінну роботу - платформа для агрегації інформації AI Agent та виявлення токенів, а потім фреймворки AI Agent, і нарешті мимоволі появляються та зникають токени Агента. Продовження переліку такої інформації тут не матиме великого значення.
Однак, спостереження протягом цього періоду показують, що на ринку все ще не ведеться значущої дискусії про те, на що нарешті спрямовані Крипто AI Agents. Ми не можемо продовжувати зосереджуватися на вказівках; суть полягає в змінах, які відбуваються на рівні пам'яті.
Це саме постійна можливість перетворювати різні активи на токенізовані форми робить Крипто таким захоплюючим.
«Твір мистецтва ніколи не завершується, лише залишається без продовження».
Усі говорять про AI Агентів, але те, що вони мають на увазі, не таке саме, що призводить до різного розуміння AI Агентів з нашої точки зору, громадськості та практиків AI.
Давно я писав, що Крипто - це ілюзія штучного інтелектуЗ того часу поєднання Крипто та ШШ зберігалося в односторонньому коханні. Практики ШШ рідко згадують про Web3 або блокчейн, тоді як прихильники Крипто глибоко зачаровані ШШ. Після того, як було свідчено феномен, коли навіть фреймворки ШШ Агента можуть бути токенізовані, невідомо, чи це дійсно зможе привернути практиків ШШ до нашого світу.
AI - агент Крипто. Це найкраща анотація з криптографічної перспективи для перегляду поточного розквіту ШІ. Ентузіазм Крипто до ШІ відрізняється від інших галузей; ми особливо сподіваємося інтегрувати емісію та експлуатацію фінансових активів з нею.
На своєму корінні AI Agent має принаймні три джерела. AGI (Штучний Загальний Інтелект) OpenAI вважає це важливим кроком, перетворюючи цей термін на популярне модне слово поза технічними колами. Однак, по суті, Агент - це не новий концепт. Навіть з підсиленням ШІ, важко сказати, що це революційний технологічний тренд.
Перший джерело - це AI Агент, як бачить його OpenAI. Подібно до рівня L3 в автономному водінні, AI Агент можна розглядати як обладнаний певними передовими можливостями допомоги, але ще не здатний повністю замінити людину.
Image caption Фаза планування OpenAI AGI
Джерело зображення: https://www.bloomberg.com/
Другим джерелом є AI Agent, як не важко здогадатися, це Агент, що має потужність AI. Концепція механізмів агентства та делегування не є новою у галузі обчислювальної техніки. Однак за візією OpenAI, Агент стане стадією L3 після розмовних форм (наприклад, ChatGPT) та форм мислення (наприклад, різні боти). Основною рисою цієї стадії є можливість «автономного виконання певних поведінкових реакцій», або, як визначив засновник LangChain Харрісон Чейс: «AI Agent - це система, яка використовує LLM (Large Language Model), щоб приймати рішення щодо керування процесом у програмі». \
Ось де це стає цікавим. До приходу LLMs агент переважно виконував процеси автоматизації, встановлені людьми. Наприклад, при проектуванні веб-скрейпера програмісти встановлювали User-Agent, щоб імітувати деталі, такі як версія браузера та операційна система, використовувана реальними користувачами. Якщо б для того, щоб точніше імітувати людську поведінку, був використаний AI-агент, це могло призвести до створення AI-агент-заснованої структури веб-скрейпера, що робить скрейпер "більш схожим на людину".
При таких переходах введення агентів штучного інтелекту повинно інтегруватися з існуючими сценаріями, оскільки абсолютно нових сфер практично не існує. Навіть можливості автоматичного завершення коду та генерації у таких інструментах, як Curosr та Github Copilot, є лише функціональними покращеннями в рамках LSP (Language Server Protocol) з численними прикладами подібної еволюції:
Для уточнення, у взаємодії людина-комп'ютер, поєднання інтерфейсу користувача Web 1.0 та браузерів дійсно дозволило громадськості використовувати комп'ютери без перешкод, що представлено поєднанням Windows та IE. API стали стандартом абстракції та передачі даних за інтернетом, і під час ери Web 2.0 з'явилися браузери, такі як Chrome, зі зміною мобільних звичок використання інтернету людьми. Супер-додатки, такі як WeChat та платформи Meta, тепер охоплюють всі аспекти життя людей.
Третє джерело - концепція «Намірів» в крипто-просторі, що призвела до зростання інтересу до AI Агентів. Однак, слід зазначити, що це застосовується лише в крипто-середовищі. Від Bitcoin-скриптів з обмеженою функціональністю до розумних контрактів Ethereum, сама концепція Агента широко використовується. Подальший виникнення міжланцюжкових мостів, абстракцій ланцюгів, EOA (зовнішньо власних облікових записів) до AA (абстракції облікових записів) гаманців - є природнім продовженням цього ряду міркувань. Тому, коли AI Агенти «вторгаються» в крипто-середовище, не дивно, що вони природно призводять до сценаріїв DeFi.
Ось де виникає плутанина навколо концепції агента штучного інтелекту. У контексті криптовалюти ми насправді намагаємося досягти «автоматичного фінансового управління, автоматичного створення мемів» агента. Однак, за визначенням OpenAI, такий ризикований сценарій потребує виконання L4 або L5. Тим часом громадськість експериментує з автоматичним генеруванням коду або допомогою в написанні, що не мають такого ж рівня, які ми прагнемо досягти.
Після того, як ми зрозуміємо, чого ми справді хочемо, ми зможемо сконцентруватися на організаційній логіці AI-агентів. Технічні деталі слідуватимуть, оскільки концепція AI-агента в кінцевому підсумку полягає в усуненні бар'єрів перед впровадженням технологій великого масштабу, схоже на те, як браузери революціонізували індустрію персональних ПК. Наша увага буде зосереджена на двох пунктах: розглядання AI-агентів з погляду взаємодії людина-комп'ютер та розуміння відмінностей і зв'язків між AI-агентами та LLMs, що приведе нас до третьої частини: на що в кінцевому підсумку піде поєднання Крипто та AI-агентів.
Перед моделями людино-комп'ютерної взаємодії, такими як ChatGPT, основними формами взаємодії людини і комп'ютера були GUI (графічний інтерфейс користувача) і CLI (інтерфейс командного рядка). Менталітет GUI еволюціонував у різні конкретні форми, такі як браузери та додатки, тоді як поєднання CLI і Shell зазнало мінімальних змін.
Але це лише «фронтенд» взаємодії людини і комп'ютера. З розвитком Інтернету збільшення обсягу і різноманітності даних призвело до більш «бекендових» взаємодій між даними та між додатками. Ці два аспекти залежать один від одного - навіть проста дія веб-перегляду фактично потребує їх співпраці.
Якщо взаємодію людини з браузерами та додатками вважати точкою входу користувача, то посилання та переходи між API підтримують фактичну роботу Інтернету. Насправді, це також частина Агента. Звичайним користувачам не потрібно розуміти такі терміни, як командний рядок та API, щоб досягти своїх цілей.
Те саме стосується LLMs. Тепер користувачі можуть йти ще далі - більше не потрібно шукати. Весь процес можна описати наступними кроками:
Можна виявити, що в цьому процесі найбільшим викликом є Google, оскільки користувачам не потрібно відкривати пошуковий двигун, а різні вікна діалогу, схожі на GPT, та вхід для трафіку тихо змінюються. Через це деякі люди вважають, що ця LLM революціонізує життя пошукових систем.
Так яку роль відіграє AI Agent в цьому процесі?
Коротко кажучи, AI Agent - це спеціалізоване розширення LLM.
Поточні LLM-и не є ШІ (штучний загальний інтелект) і далеко від L5 організатора, яким уявляє собі OpenAI. Їх можливості значно обмежені. Наприклад, LLM-и схильні до галюцинацій, якщо надати їм забагато вхідних даних користувача. Одна з основних причин полягає в механізмі навчання. Наприклад, якщо ви знову й знову кажете GPT, що 1+1=3, існує ймовірність, що він може відповісти 4, коли його запитають про 1+1+1=?.
Це стається через те, що відгуки GPT повністю походять від введення користувача. Якщо модель не підключена до Інтернету, існує можливість зміни її роботи через ваші введення, що призводить до моделі, яка лише "знає", що 1+1=3. Однак, якщо модель може підключитися до Інтернету, її механізм відгуку стає більш різноманітним, оскільки велика більшість онлайн-даних буде підтверджувати, що 1+1=2.
Тепер, що, якщо ми повинні використовувати LLM локально і хочемо уникнути таких проблем?
Простим рішенням є одночасне використання двох LLM, що вимагає від них перехресної перевірки відповідей один одного, щоб зменшити ймовірність помилок. Якщо цього недостатньо, інший підхід може полягати в тому, що двоє користувачів керують одним процесом — один задає питання, а інший уточнює їх — щоб зробити мову більш точною та логічною.
Звичайно, підключення до Інтернету не повністю усуває проблеми. Наприклад, якщо LLM отримує відповіді з ненадійних джерел, ситуація може погіршитися. Однак, уникнення таких даних зменшує кількість доступної інформації. Для вирішення цього, існуючі дані можуть бути розбиті, перерозподілені або навіть використані для генерації нових даних на основі старих наборів даних для забезпечення більш надійної відповіді. Цей підхід суттєво відображає концепцію RAG (Retrieval-Augmented Generation) у розумінні природної мови.
Люди та машини повинні розуміти одне одного. Коли кілька LLM співпрацюють та взаємодіють, ми, по суті, використовуємо операційну модель AI агентів. Вони служать як проксі-сервери людей, отримуючи доступ до інших ресурсів, включаючи великі моделі та інших агентів.
Це приводить нас до зв'язку між LLMs та AI Агентами:
LLMs - це агрегація знань, з якими люди взаємодіють через чат-інтерфейси. Однак на практиці певні конкретні робочі процеси можуть бути скорочені до менших програм, ботів або наборів інструкцій. Ці процеси визначаються як Агенти.
Агенти штучного інтелекту залишаються підмножиною LLM, але їх не слід ототожнювати з ними. Визначальна особливість AI Agents полягає в тому, що вони роблять акцент на співпраці із зовнішніми програмами, LLM та іншими агентами. Ось чому люди часто узагальнюють AI Agents як LLM + API.
Щоб проілюструвати це в робочому процесі LLM, давайте візьмемо приклад виклику API через AI Agent:
Пам'ятаєте еволюцію взаємодії людини з комп'ютером? Браузери, API та інші складові з Web 1.0 та Web 2.0 існують досі, але користувачам вже не потрібно взаємодіяти з ними безпосередньо. Замість цього вони можуть просто спілкуватися з AI-агентами. Виклики API та пов'язані процеси можуть бути проведені конверсаційно. Ці сервіси API можуть охоплювати будь-який тип даних, незалежно від того, чи є вони локальними, онлайн або зовнішніми додатками, якщо інтерфейси відкриті, а користувачі мають необхідні дозволи для доступу до них.
Повний робочий процес AI Agent, як показано вище, розглядає LLM як окремий компонент від AI Agent або як два підпроцеси в одному робочому процесі. Незалежно від того, як вони розділені, метою завжди є задоволення потреб користувачів. З точки зору взаємодії людини з комп'ютером це може навіть виглядати так, ніби користувачі розмовляють з собою. Вам потрібно лише повністю виразити свої думки, і AI/LLM/AI Agent буде постійно вгадувати ваші потреби. Інтегруючи засоби зворотнього зв'язку та забезпечуючи, що LLM пам'ятає поточний контекст, AI Agent уникає втрати свого завдання.
Загалом, AI Агенти є більш персоналізованими та гуманізованими створеннями, що відрізняє їх від традиційних сценаріїв та засобів автоматизації. Вони діють як особисті помічники, враховуючи реальні потреби користувача. Однак важливо зазначити, що ця персоналізація все ще базується на ймовірнісній інференції. AI Агент рівня L3 не має можливостей розуміння та виразності на рівні людини, що робить його інтеграцію з зовнішніми API неабияк ризикованою.
Можливість монетизувати фреймворки ШІ є однією з основних причин, чому я залишаюся зацікавленим у криптовалюті. У традиційних стеках технологій ШІ фреймворки не є особливо важливими, принаймні не порівняно з даними та обчислювальною потужністю. Монетизація продуктів ШІ рідко починається з фреймворку, оскільки більшість алгоритмів та модельних фреймворків ШІ є відкритими. Що залишається пропрієтарним, це конфіденційні елементи, такі як дані.
Основними складовими фреймворків або моделей штучного інтелекту є алгоритми, схожі на горщик для тушкованої гуся. Однак, якість гуся та вміння готувати - ось що справді визначає смак. У теорії, продуктом для продажу повинен бути гусь, але споживачі Web3, здається, віддають перевагу купівлі горщика, відкидаючи гуся.
Причина цього нескладна. Більшість продуктів штучного інтелекту Web3 ґрунтуються на існуючих фреймворках, алгоритмах та продуктах штучного інтелекту, налаштовуючи їх для своїх потреб. Фактично, технічні принципи різних крипто AI фреймворків не є значно відмінними. Оскільки сама технологія не має відмінностей, увага переключається на брендування, сценарії застосування та інші поверхневі відмінності. В результаті навіть незначні зміни у фреймворку штучного інтелекту стають основою для підтримки різних токенів, що призводить до утворення бульбашки фреймворку в екосистемах крипто AI Агентів.
Оскільки немає потреби в значних вкладеннях у тренувальні дані або алгоритми, особливо важливо відрізняти фреймворки за назвою. Навіть доступний фреймворк, такий як DeepSeek V3, все ще вимагає значних витрат на електроенергію, потужність GPU та зусилля.
У певному сенсі це узгоджується з нещодавньою тенденцією Web3: платформи, що випускають токени, часто цінніші, ніж самі токени. Такі проекти, як Pump.Fun і Hyperliquid, є прикладом цього. Спочатку агенти повинні були представляти додатки та активи, але фреймворки, що видають агентів, тепер стали найпопулярнішим товаром.
Це відображає форму якості якості. Оскільки агенти не мають різниці, фреймворки для видачі агентів стають більш стабільними і створюють ефект відціджування вартості для емісії активів. Це позначає 1.0 версію інтеграції крипти та штучних інтелектуальних агентів.
Зараз з'являється версія 2.0, прикладом якої є конвергенція агентів DeFi та AI. Хоча концепція DeFAI, можливо, була викликана ажіотажем на ринку, більш глибокий погляд на наступні тенденції свідчить про протилежне:
В цьому контексті трансформації DeFi, штучний інтелект переписує основну логіку DeFi. Раніше основна логіка DeFi полягала у перевірці можливості розумних контрактів. Тепер агенти штучного інтелекту змінюють логіку виробництва DeFi. Ви більше не мусите розуміти DeFi, щоб створювати продукти DeFi. Це означає крок поза абстракцію ланцюга, надаючи глибшу основну емповермент.
Ера, коли кожен може бути програмістом, на горизонті. Складні обчислення можна аутсорсити до LLM та API за допомогою штучних інтелектуальних агентів, що дозволяє людям зосередитися виключно на своїх ідеях. Природну мову можна ефективно перетворити на програмну логіку.
У цій статті не згадується жоден Крипто AI Agent токенів або фреймворків, оскільки Cookie.Fun вже зробив відмінну роботу - платформа для агрегації інформації AI Agent та виявлення токенів, а потім фреймворки AI Agent, і нарешті мимоволі появляються та зникають токени Агента. Продовження переліку такої інформації тут не матиме великого значення.
Однак, спостереження протягом цього періоду показують, що на ринку все ще не ведеться значущої дискусії про те, на що нарешті спрямовані Крипто AI Agents. Ми не можемо продовжувати зосереджуватися на вказівках; суть полягає в змінах, які відбуваються на рівні пам'яті.
Це саме постійна можливість перетворювати різні активи на токенізовані форми робить Крипто таким захоплюючим.