Anthropic testou o marketplace para comércio entre agentes de IA - ForkLog: criptomoedas, IA, singularidade, futuro

AI-agents ИИ агенты 3# A Anthropic testou um marketplace para comércio entre agentes de IA

A empresa Anthropic criou uma plataforma de teste, onde agentes de IA atuam como compradores e vendedores. O experimento recebeu o nome de Project Deal.

Nova pesquisa da Anthropic: Project Deal.

Criamos um mercado para funcionários do nosso escritório em São Francisco, com uma grande novidade. Encarregamos Claude de comprar, vender e negociar em nome dos nossos colegas. pic.twitter.com/H2f6cLDlAW

— Anthropic (@AnthropicAI) 24 de abril de 2026

No projeto participaram 69 funcionários da empresa. Cada um recebeu um orçamento $100 em forma de cartões-presente

Antes do início, Claude realizou entrevistas com os participantes: descobriu quais objetos pessoais eles estavam dispostos a vender, o que gostariam de comprar, a que preço e qual estilo de negociação seus agentes deveriam adotar.

Depois, com base nas respostas, criou-se um prompt sistemático personalizado para cada um. O mercado foi lançado no Slack. Lá, os agentes publicavam anúncios, faziam propostas por bens de outros, negociavam e fechavam negócios sem intervenção humana.

Após o término do experimento, os funcionários trocaram objetos reais, que foram aprovados por seus «representantes de IA».

Fonte: Anthropic No total, os agentes realizaram 186 negociações em mais de 500 anúncios. O valor total das transações ultrapassou $4000

A Anthropic destacou que, no geral, os participantes ficaram satisfeitos com os resultados do experimento. Alguns manifestaram disposição a pagar por um serviço semelhante no futuro.

Quatro versões do mercado

A Anthropic lançou quatro versões independentes do marketplace. Uma era «real» — exatamente com base nela os funcionários trocavam bens. As demais eram usadas para fins de pesquisa. Essa informação não foi divulgada.

Em duas versões, todos os participantes eram representados pelo Claude Opus 4.5 — na época, o modelo mais avançado da Anthropic. Nas outras duas, os participantes eram aleatoriamente designados ao Opus 4.5 ou a um Claude Haiku 4.5 de menor potência.

A qualidade do modelo influenciava o resultado das negociações. Usuários com Opus, em média, fechavam cerca de duas negociações a mais do que os com Haiku.

Na venda de bens iguais, o Opus também obtinha preços mais altos. Em média, a diferença era de $3,64.

Haiku vendeu uma bicicleta por $38, enquanto o Opus por $65. Fonte: Anthropic Os participantes nem sempre percebiam a discrepância. Na Anthropic, isso foi considerado um potencial problema para futuros mercados com agentes de IA. Usuários com modelos menos potentes podem obter condições piores, sem entender que estão em desvantagem.

Os prompts quase não influenciaram o resultado

Os pesquisadores também verificaram se as instruções iniciais dadas pelos humanos influenciavam o comportamento dos agentes. Parte dos participantes pediu que Claude agisse de forma amigável, outra parte, de forma mais agressiva na negociação.

Segundo a Anthropic, instruções grosseiras não tiveram impacto estatisticamente significativo na probabilidade de venda, no preço final ou na capacidade de comprar mais barato.

A equipe do projeto esclareceu que isso não se deve necessariamente ao fraco seguimento das instruções: Claude realmente podia reproduzir o estilo de comunicação solicitado, mas isso não conferia vantagem comercial perceptível.

Resultados imprevistos

Na Anthropic, destacaram alguns episódios imprevisíveis. Antes do lançamento, os agentes receberam um volume limitado de dados: entrevistas com os participantes duraram menos de 10 minutos, e após o início, as pessoas não podiam mais intervir nas negociações.

Em um caso, um funcionário comprou por meio de um assistente uma prancha de snowboard igual à que já possuía. Segundo especialistas, a pessoa não faria essa compra por conta própria, mas o agente conseguiu identificar exatamente as preferências do participante.

Para nossa surpresa, outro agente Claude modelou as preferências humanas de forma tão precisa que — com base apenas em uma menção casual ao interesse por esqui — Claude comprou para ele a prancha de snowboard exata que ele já possuía. ( Aqui está, com a prancha duplicada na mão. ) pic.twitter.com/SsAyeB9pcI

— Anthropic (@AnthropicAI) 24 de abril de 2026

Outro funcionário pediu ao bot que comprasse um «presente para si mesmo». A negociação ocorreu na versão real do experimento. No final, trouxeram ao escritório um pacote com bolas de pingue-pongue, deixado pela Anthropic «em nome de Claude».

Alguns agentes negociaram não por bens, mas por experiências. Um deles ofereceu um dia grátis com o cachorro de uma funcionária. Após discussão com outro assistente, as partes concordaram com um «encontro com o cachorro», que os funcionários posteriormente realizaram.

Fonte: Anthropic A Anthropic destacou que esses casos provavelmente não se repetirã no futuro. No entanto, a combinação de preferências humanas e comportamento imprevisível de IA pode levar a resultados inesperados.

Questões de confiabilidade

O fundador de uma empresa agrícola não identificada informou no Reddit que, numa manhã, 110 funcionários receberam simultaneamente uma notificação de suspensão de acesso ao Claude, sem aviso prévio.

A ANTHROPIC SIMPLESMENTE BANIOU UMA EMPRESA DE 110 PESSOAS DURANTE A NOITE SEM AVISO

Numa manhã de segunda-feira, numa empresa de tecnologia agrícola, todos os funcionários acordaram com um e-mail dizendo que suas contas Claude foram suspensas

110 pessoas bloqueadas ao mesmo tempo, sem aviso, e o e-mail… pic.twitter.com/qARizhgOXs

— Om Patel (@om_patel5) 27 de abril de 2026

Segundo ele, o e-mail parecia uma bloqueio individual e continha um link para um formulário de apelação, o que fez a equipe não perceber imediatamente que a restrição afetava toda a organização.

O empresário destacou que não conseguiu restabelecer o acesso rapidamente. Após 36 horas de pedidos, a Anthropic não forneceu explicações.

Ao mesmo tempo, a conta API da empresa continuava ativa e debitando fundos. Os administradores corporativos não conseguiam acessar o painel de controle para verificar pagamentos e uso do serviço.

O fundador também observou que o bloqueio de toda a organização poderia ter sido causado por ações de um único usuário. No Claude, não há restrições específicas ao nível do espaço de trabalho, mecanismos de isolamento local de violações ou prioridades administrativas para manter o acesso ao restante da equipe.

Na sua opinião, esse modelo de moderação põe em dúvida a possibilidade de usar o Claude como infraestrutura crítica para operações comerciais diárias.

Outras empresas também enfrentam esse problema. Um usuário compartilhou um link para um serviço onde, até o momento, há 53 casos semelhantes registrados.

Lembrete: em 24 de abril, a Google anunciou um investimento de $40 bilhões na Anthropic.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar