Os resultados do ARC Prize 2025 são bastante interessantes — uma certa equipa conseguiu superar monstros de parâmetros com um modelo simplificado.



Qual é o segredo deles? Alimentação com dados sintéticos + aprendizagem por reforço adaptativa. Parece simples, mas isto prova uma coisa: um modelo maior não é necessariamente mais inteligente, a estratégia de treino é que faz a diferença.

Este caminho de maior leveza é uma boa notícia para os programadores com recursos limitados. Afinal, nem todos têm capacidade para gastar recursos computacionais a acumular parâmetros. A democratização da tecnologia, talvez, comece por estas soluções pequenas mas elegantes.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 7
  • Republicar
  • Partilhar
Comentar
0/400
SatoshiNotNakamotovip
· 7h atrás
Caramba, um modelo pequeno a superar um modelo grande? Agora dá mesmo para calar aqueles que só sabem gastar dinheiro a aumentar parâmetros, haha
Ver originalResponder0
down_only_larryvip
· 12-05 23:00
A sério, porque é que é tão difícil perceber que qualidade > quantidade? Um monte de grandes modelos não chega aos calcanhares de uma estratégia de treino requintada.
Ver originalResponder0
OnlyUpOnlyvip
· 12-05 23:00
Os pequenos modelos deram a volta por cima, desta vez finalmente vimos algo de verdade, já não é a era em que basta acumular parâmetros para ganhar.
Ver originalResponder0
MidnightTradervip
· 12-05 22:57
A abordagem dos dados sintéticos é mesmo incrível, parece que os grandes modelos vão mesmo à vida haha --- A sério? Agora até os pequenos investidores conseguem treinar bons modelos? As grandes empresas que gastavam rios de dinheiro devem estar a entrar em pânico --- Espera lá, como é que se usa isso do reinforcement learning adaptativo? Alguém consegue explicar como se eu tivesse 5 anos? --- Finalmente uma boa notícia, já não é preciso juntar meio ano de salário para comprar poder de computação --- Modelos simplificados a derrotar monstros de parâmetros, se isto for verdade... os projetos de IA on-chain vão passar por outra ronda de triagem --- Só quero saber se este método é replicável ou se é mais uma daquelas ideias que só funcionam bem nos artigos científicos --- Já estou farto de ouvir falar em democratização da tecnologia, mas desta vez parece que é a sério
Ver originalResponder0
HalfIsEmptyvip
· 12-05 22:40
Porra, finalmente alguém expôs a lógica inflacionada dos grandes modelos. Dados sintéticos + aprendizagem por reforço conseguem facilmente superar o empilhamento de parâmetros, agora aquelas empresas de IA que queimam dinheiro ficaram numa situação embaraçosa. Esta mudança liberta mesmo a produtividade, as pequenas equipas já não ficam reféns da capacidade computacional.
Ver originalResponder0
GateUser-0717ab66vip
· 12-05 22:38
Uau, finalmente alguém desvendou a magia dos grandes modelos, nem é preciso acumulá-los até se tornarem monstros. Esta abordagem de dados sintéticos + aprendizagem por reforço é realmente incrível, chegou a primavera para as pequenas equipas!
Ver originalResponder0
SchrodingerGasvip
· 12-05 22:34
Mais uma vez ficou provado que os grandes modelos cheios de parâmetros estão apenas a fazer de conta, como no conto das novas roupas do imperador; o verdadeiro segredo para vencer está no equilíbrio estratégico do treino.
Ver originalResponder0
  • Fixar
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)