Ramp Labs пропонує нове рішення для спільного використання пам’яті між багатьма агентами, витрати токенів знижуються максимум на 65%

GateNews

Оновлення Gate News: 11 квітня компанія з інфраструктури для AI Ramp Labs опублікувала результати дослідження «Latent Briefing». Вона забезпечує ефективний обмін пам’яттю між багатосистемними агентами шляхом прямого стиснення KV-кешу великих мовних моделей, значно зменшуючи витрати на Token без втрати точності. У більшості поширених архітектур багатосистемних агентів оркестратор (Orchestrator) розкладає завдання на частини та неодноразово викликає модель робітника (Worker). У міру того, як ланцюжок міркувань постійно подовжується, обсяг Token стрімко зростає експоненційно. Ключова ідея Latent Briefing полягає в тому, щоб за допомогою механізму уваги визначити в контексті справді важливі фрагменти, а в шарі представлення прямо відкидати надлишкову інформацію, а не покладатися на повільні LLM-зведення або ненадійний RAG-пошук. У бенчмарку LongBench v2 цей підхід показав вражаючі результати: витрати Token у моделі Worker знизилися на 65%, а медіанна економія Token для документів середньої довжини (32k до 100k) досягла 49%. Загальна точність підвищилася приблизно на 3 відсоткові пункти порівняно з базовим рівнем, тоді як додатковий час на кожне стиснення становить лише близько 1,7 секунди, що прискорює роботу приблизно у 20 разів порівняно з початковим алгоритмом. Експерименти проводилися з Claude Sonnet 4 як оркестратором і Qwen3-14B як моделлю робітника, охоплюючи сценарії з документами різних типів, зокрема наукові статті, юридичні документи, романи та урядові звіти. Дослідження також виявило, що оптимальний поріг стиснення залежить від складності завдання та довжини документа: для складних задач підходить більш агресивне стиснення, щоб відфільтрувати шум спекулятивного міркування, а для довгих документів краще підходить м’яке стиснення, щоб зберегти розосереджену ключову інформацію.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

OpenAI Рекрутує найкращі таланти з корпоративного софту, оскільки агенти на передньому краї змінюють індустрію

Повідомлення Gate News, 26 квітня — OpenAI та Anthropic вербують старших керівників і спеціалізованих інженерів із провідних корпоративних софтверних компаній, зокрема Salesforce, Snowflake, Datadog і Palantir. Деніз Дрессер, колишня CEO Slack у складі Salesforce, приєдналася до OpenAI на посаду головної комерційної посадової особи (chief revenue of

GateNews8год тому

Worxphere перейменовує JobKorea, додаючи інструменти для найму на базі ШІ

Повідомлення Gate News, 26 квітня — Платформа з управління персоналом у Південній Кореї Worxphere перейменувала JobKorea, переходячи від традиційних онлайн-дошок вакансій до рішень для найму, керованих ШІ. Компанія об’єднує сервіси, зокрема JobKorea та Albamon, в єдину платформу, що охоплює постійну зайнятість, гіг-роботу та рекрутинг іноземних працівників.

GateNews19год тому

AI-агент уже здатний самостійно відтворювати складні академічні статті: Mollick стверджує, що помилки здебільшого трапляються в людських оригіналах, а не в AI

Моллік зазначає, що опубліковані методи та дані дозволяють AI-агентам відтворювати складні дослідження без наявності оригінальних наукових праць і коду; якщо відтворення не відповідає оригінальній статті, то найчастіше проблема не в AI, а в помилках обробки даних у самій статті або в надмірному узагальненні висновків. Claude спочатку відтворює статтю, а потім GPT‑5 Pro перехресно верифікує; у більшості випадків це вдається, лише коли дані надто великі або виникають проблеми з replication data. Ця тенденція значно знижує трудовитрати, роблячи відтворення поширеною, практично здійсненною перевіркою, а також висуває інституційні виклики для рецензування та управління (governance): інструменти державного управління можуть стати ключовим питанням.

ChainNewsAbmedia20год тому

ОАЕ оголошують перехід до моделі AI-держави протягом наступних двох років

Його Високість шейх Мохаммед бін Рашид Аль Мактум заявив, що метою було забезпечити роботу 50% державних секторів через автономний агентний ШІ. Перехід також включатиме навчання федеральних працівників, щоб «опанувати ШІ», і перебуватиме під наглядом шейха Мансура бін Зайєда. Ключові висновки:

Coinpedia04-25 08:39

Платформа для ШІ-торгівлі Fere AI залучила $1,3 млн фінансування під проводом Ethereal Ventures

Повідомлення Gate News, 25 квітня — Fere AI, платформа для торгівлі цифровими активами з підтримкою ШІ, оголосила про завершення раунду фінансування на $1,3 млн під проводом Ethereal Ventures за участі Galaxy Vision Hill та Kosmos Ventures, повідомляє Globenewswire. Платформа підтримує кросчейн

GateNews04-25 07:46

Nvidia розгортає AI-агента OpenAI Codex для всієї команди працівників на інфраструктурі Blackwell

Повідомлення Gate News, 25 квітня — Nvidia розгорнула Codex від OpenAI, AI-агента з підтримкою GPT-5.5, для всієї своєї команди працівників після успішного випробування приблизно з 10,000 співробітників, повідомляють внутрішні матеріали від CEO Дженсена Хуанга та CEO OpenAI Сема Альтмана. Codex розроблено для того, щоб допомагати з

GateNews04-25 03:11
Прокоментувати
0/400
Немає коментарів