OPENAI

Preço OpenAI

OPENAI
€0
+€0(0,00%)
Sem dados

*Dados atualizados pela última vez: 2026-04-29 15:26 (UTC+8)

Em 2026-04-29 15:26, o OpenAI (OPENAI) está cotado a €0, com uma capitalização de mercado total de --, um Índice P/L de 0,00 e um rendimento de dividendo de 0,00%. Hoje, o preço das ações oscilou entre €0 e €0. O preço atual está 0,00% acima do mínimo do dia e 0,00% abaixo do máximo do dia, com um volume de negociação de --. Ao longo das últimas 52 semanas, OPENAI esteve em negociação entre €0 e €0, estando atualmente a 0,00% do máximo das 52 semanas.

Estatísticas principais de OPENAI

Índice P/L0,00
Rendimento de Dividendos (TTM)0,00%
Ações em circulação0,00

Saiba mais sobre OpenAI (OPENAI)

Perguntas Frequentes sobre OpenAI (OPENAI)

Qual é o preço das ações de OpenAI (OPENAI) hoje?

x
OpenAI (OPENAI) está atualmente a negociar a €0, com uma variação de 24h de 0,00%. O intervalo de negociação das últimas 52 semanas é de €0–€0.

Quais são os preços máximo e mínimo das últimas 52 semanas para OpenAI (OPENAI)?

x

Qual é o índice preço-lucro (P/L) de OpenAI (OPENAI)? O que indica este valor?

x

Qual é a capitalização de mercado de OpenAI (OPENAI)?

x

Qual é o lucro por ação (EPS) trimestral mais recente de OpenAI (OPENAI)?

x

Deve comprar ou vender OpenAI (OPENAI) agora?

x

Que fatores podem influenciar o preço das ações da OpenAI (OPENAI)?

x

Como comprar ações da OpenAI (OPENAI)?

x

Aviso de Risco

O mercado de ações envolve um elevado nível de risco e volatilidade de preços. O valor do seu investimento pode aumentar ou diminuir, e poderá não recuperar o montante total investido. O desempenho passado não é um indicador fiável de resultados futuros. Antes de tomar qualquer decisão de investimento, deve avaliar cuidadosamente a sua experiência de investimento, situação financeira, objetivos de investimento e tolerância ao risco, bem como realizar a sua própria pesquisa. Sempre que apropriado, consulte um consultor financeiro independente.

Isenção de responsabilidade

O conteúdo desta página é fornecido apenas para fins informativos e não constitui aconselhamento de investimento, aconselhamento financeiro ou recomendações de negociação. A Gate não poderá ser responsabilizada por qualquer perda ou dano resultante dessas decisões financeiras. Além disso, tenha em atenção que a Gate poderá não conseguir prestar o serviço completo em determinados mercados e jurisdições, incluindo, mas não se limitando, aos Estados Unidos da América, Canadá, Irão e Cuba. Para mais informações sobre Localizações Restritas, consulte o Acordo do Utilizador.

Outros mercados de negociação

Últimas Notícias OpenAI (OPENAI)

2026-04-29 08:17

O custo da tokenização do idioma chinês do Claude é 65% mais alto do que o do inglês; a OpenAI apenas 15% mais

Mensagem do Gate News, 29 de abril — a investigadora de IA Aran Komatsuzaki realizou uma análise comparativa da eficiência de tokenização em seis dos principais modelos de IA, traduzindo o artigo seminal de Rich Sutton "The Bitter Lesson" para nove línguas e processando-o através dos tokenizadores da OpenAI, Gemini, Qwen, DeepSeek, Kimi e Claude. Usando a contagem de tokens da versão em inglês na OpenAI como base (1x), o estudo revelou disparidades significativas: ao processar o mesmo conteúdo em chinês, eram necessários 1.65x tokens no Claude, em comparação com apenas 1.15x na OpenAI. O hindi apresentou um resultado ainda mais extremo no Claude, superando a base em mais de 3x. A Anthropic ficou em último lugar entre os seis modelos testados. De forma crucial, quando o mesmo texto chinês foi processado em diferentes modelos — todos medidos em relação à mesma base em inglês — os resultados divergiram dramaticamente: o Kimi consumiu apenas 0.81x tokens (até menos do que o inglês), o Qwen 0.85x, enquanto o Claude exigiu 1.65x. Esta diferença revela um problema puro de eficiência de tokenização, e não uma questão inerente ao idioma. Os modelos de chinês demonstraram maior eficiência ao processar chinês, sugerindo que a disparidade decorre da otimização do tokenizador e não do próprio idioma. As implicações práticas para os utilizadores são substanciais: o aumento do consumo de tokens eleva diretamente os custos da API, aumenta a latência de resposta do modelo e esgota mais rapidamente as janelas de contexto. A eficiência de tokenização depende da composição linguística dos dados de treino de um modelo — modelos treinados predominantemente em inglês comprimem o texto em inglês com maior eficiência, enquanto idiomas com menor representação nos dados são tokenizados em fragmentos menores e menos eficientes. A conclusão de Komatsuzaki sublinha um princípio fundamental: o tamanho do mercado determina a eficiência de tokenização. Mercados maiores recebem melhor otimização, enquanto os idiomas sub-representados enfrentam custos de tokens significativamente mais elevados.

2026-04-29 04:33

Modelos da OpenAI para migrar gradualmente para o chip personalizado Trainium da Amazon, diz Altman; afirma que está a "olhar em frente"

Mensagem de Gate News, 29 de abril — Os modelos da OpenAI a correr no Amazon Web Services' Bedrock irão gradualmente migrar para o Trainium, o chip de IA personalizado da Amazon, de acordo com comentários recentes do CEO da OpenAI Sam Altman e de executivos da AWS. Atualmente, os modelos operam num ambiente misto usando tanto GPUs como Trainium, com uma quota crescente a migrar para o Trainium ao longo do tempo. Altman afirmou que a empresa está a "olhar em frente a mover modelos para o Trainium." Um executivo da AWS, Garman, reconheceu que o nome do Trainium pode ter sido enganador, uma vez que o chip foi concebido tanto para treino como para inferência, prevendo-se que a inferência seja o caso de uso principal no futuro. No entanto, Garman salientou que a marcação do chip é em grande medida irrelevante para a maioria dos clientes, ao notar que os utilizadores interagem com a OpenAI através da sua interface de API em vez de diretamente com o hardware subjacente. Quando questionado sobre uma futura integração de modelos que não sejam da OpenAI em Bedrock Managed Agents, Garman recusou-se a fornecer detalhes, afirmando apenas que a AWS está atualmente focada na sua parceria com a OpenAI. A colaboração sublinha a estratégia da AWS de aproveitar o seu silício personalizado para apoiar grandes cargas de trabalho de IA na sua plataforma cloud.

2026-04-29 04:29

Altman: A precificação por tokens está a tornar-se obsoleta à medida que o GPT-5.5 muda o foco para a conclusão de tarefas em vez da contagem de tokens

Mensagem de Gate News, 29 de abril — O CEO da OpenAI, Sam Altman, disse numa entrevista a Ben Thompson na Stratechery que a fixação de preços baseada em tokens não é um modelo viável a longo prazo para serviços de IA. Usando o GPT-5.5 como exemplo, Altman observou que, embora o preço por token seja significativamente mais alto do que o do GPT-5.4, o modelo usa muito menos tokens para concluir a mesma tarefa, o que significa que os clientes não se importam com a contagem de tokens — só se importam com se a tarefa é concluída e com o custo total. "Não somos uma fábrica de tokens; somos mais como uma fábrica de inteligência", disse Altman. "Os clientes querem comprar a maior quantidade de inteligência pelo menor dinheiro. Quer o trabalho subjacente seja feito por um modelo grande a usar poucos tokens, ou por um modelo pequeno a usar muitos tokens, não lhes interessa." Acrescentou que a base de clientes atual da OpenAI está cada vez mais exigente em termos de mais capacidade, em vez de negociar preços, com muito mais clientes a dizerem "dêem-nos mais capacidade, custe o que custar" do que os que pedem descontos. Traçando um paralelo com as utilities, Altman explicou que, ao contrário da água ou da electricidade — em que preços mais baixos não aumentam significativamente o consumo — a procura de IA escala de forma diferente. "Enquanto o preço for suficientemente baixo, vou continuar a usar mais. Nenhuma outra utility pública funciona assim", disse. O CEO da AWS, Matt Garman, acrescentou que os preços do poder de computação diminuíram várias ordens de grandeza ao longo dos últimos 30 anos, ainda assim está a ser vendida hoje mais capacidade de computação do que nunca. Altman também caracterizou o ChatGPT como "o primeiro produto de consumo verdadeiramente em grande escala desde o Facebook", reconhecendo que, embora se esperasse que a IA perturbasse as pesquisas, as vitórias reais vieram do próprio ChatGPT e da API do Codex. Referiu que "o Google continua a ser subestimado de muitas formas".

2026-04-29 03:05

O Codex da OpenAI lança uma interface em dois modos: Excelmogging para trabalho de escritório, Codemaxxing para programação

Mensagem do Gate News, 29 de abril — O CEO da OpenAI, Sam Altman, anunciou hoje no X uma interface do Codex redesenhada, apresentando dois modos distintos para os utilizadores. "Excelmogging" destina-se a tarefas quotidianas de escritório com uma interface simplificada e o slogan "Mesmas ferramentas, interface mais simples," com exemplos de tarefas como a criação de folhas de cálculo. "Codemaxxing" é destinado a programadores profissionais com a descrição "Para codificação e desenvolvimento," com tarefas de exemplo que incluem a depuração de consultas à base de dados. O Codex, que inicialmente se focava na geração de código e em tarefas de engenharia, expandiu-se muito para além do seu âmbito original. O produto conta agora com mais de 4 milhões de utilizadores ativos semanais e é utilizado para análises de pesquisa, sumarização de documentos e criação de apresentações. A nova interface formaliza esta tendência ao encaminhar utilizadores não programadores para uma experiência mais simplificada. Esta mudança reflecte um padrão mais amplo da indústria: o Claude da Anthropic foi dividido em Claude Code (para programação) e Co Work (para uso geral de escritório), enquanto o TRAE Solo da ByteDance também divide os modos de programação e de escritório quotidiano. A estratégia de dois modos sublinha um consenso crescente na indústria — os agentes de programação estão cada vez mais a alargar-se a ferramentas gerais de produtividade de escritório.

2026-04-29 00:11

AWS Bedrock passa a oferecer os modelos mais recentes da OpenAI e um serviço gerido de agentes

Mensagem do Gate News, 29 de abril — A Amazon Web Services anunciou que a sua plataforma Bedrock passou a suportar os mais recentes modelos da OpenAI, incluindo o Codex, juntamente com um novo serviço gerido de agentes. A medida surge na sequência de alterações ao acordo da OpenAI com a Microsoft, que anteriormente tinha concedido à Azure direitos exclusivos sobre certos produtos da OpenAI. Os Agentes Geridos do Bedrock foram concebidos para os modelos de raciocínio da OpenAI e incluem mecanismos de orientação do agente e controlos de segurança. O anúncio surge após a OpenAI e a Amazon terem assinado um acordo avaliado em até $50 billion, o que levou à reestruturação dos termos originais de parceria da OpenAI com a Microsoft. O desenvolvimento reflete uma mudança mais ampla na concorrência em cloud, com a OpenAI agora capaz de oferecer todos os seus produtos em vários fornecedores de cloud. O AWS Bedrock já alberga modelos da Anthropic, Meta, Mistral e outros desenvolvedores de IA, posicionando a plataforma como um hub multi-modelo em vez de uma oferta de um único fornecedor.

Publicações em alta sobre OpenAI (OPENAI)

MeNews

MeNews

26 minutos atrás
ME News Notícias, 14 de abril (UTC+8), de acordo com a monitorização da 1M AI News, o laboratório de IA Thinking Machines Lab, fundado pela ex-CTO da OpenAI Mira Murati, recrutou os dois cofundadores da startup de IA personalizada Workshop Labs, CEO Luke Drago e CTO Rudolf Laine, e adquiriu a tecnologia da empresa. O valor da transação não foi divulgado. Workshop Labs foi fundada há cerca de um ano, originada de uma série de artigos escritos pelos dois fundadores intitulada "The Intelligence Curse", que discute as consequências económicas da substituição do trabalho humano na era da IA forte. A principal proposta da empresa é que a IA deve potenciar as capacidades individuais, em vez de as substituir, e construiu uma pilha tecnológica de treino e inferência privatizada em torno desta direção, alcançando a velocidade de treino mais rápida de modelos de trilhões de parâmetros, além de desenvolver um produto de ponta a ponta que permite a utilizadores não técnicos personalizar modelos com alguns cliques usando os seus próprios dados. A Thinking Machines já lançou a ferramenta de personalização de modelos Tinker, na qual a Workshop Labs participou em fase de testes antes do lançamento oficial. Esta aquisição indica que a Thinking Machines está a reforçar a sua direção de personalização de modelos, expandindo-a de uma ferramenta única para uma rota tecnológica mais completa. Murati publicou no X dizendo: "De Tinker a financiamento de pesquisa e exploração de ponta, tudo o que fazemos serve a mesma missão: capacitar a civilização humana com IA." (Fonte: BlockBeats)
0
0
0
0
Froklog

Froklog

33 minutos atrás
![ИИ AI искусственный интеллект artificial intelligence 2](https://img-cdn.gateio.im/social/moments-11461796a852bd6011e753d8b3c6db1d)# Stanford: 35% dos novos websites foram criados por IA Até meados de 2025, cerca de 35% dos novos websites foram criados total ou parcialmente com a ajuda de inteligência artificial. Essa foi a conclusão de pesquisadores da Universidade de Stanford Antes do lançamento público do ChatGPT da OpenAI em novembro de 2022, esse índice era zero. Em poucos anos, a proporção de conteúdo gerado por IA cresceu para mais de um terço das últimas publicações na internet ![](https://img-cdn.gateio.im/social/moments-ee842974ee78f00bafb2d92779f46669)Proporção de sites totalmente gerados por IA (vermelho), bem como criados com redes neurais (roxo). Fonte: GitHub Os cientistas analisaram 33 meses de cópias arquivadas de sites do Wayback Machine usando o detector Pangram v3. O objetivo era entender como o crescimento de textos por IA está remodelando a estrutura da web mundial ## Principais mudanças Os pesquisadores observaram uma redução na diversidade semântica. Páginas geradas por redes neurais são 33% mais semelhantes entre si do que textos escritos por humanos. Sites diferentes cada vez mais reproduzem as mesmas ideias com frases praticamente idênticas. Segundo os autores, o problema não se resume ao copywriting em massa com IA. A questão é mais profunda: a variedade de formulações e ideias está se estreitando gradualmente. Grandes modelos de linguagem (LLM) por sua natureza escolhem as respostas mais “médias” e, como resultado, reproduzem um discurso padronizado O tom emocional das publicações também mudou. O conteúdo de IA foi 107% mais positivo do que o humano. Em Stanford, isso foi atribuído à tendência já documentada dos LLMs de serem bajuladores Durante o treinamento, os desenvolvedores otimizam as redes neurais para respostas agradáveis, seguras e socialmente aceitáveis. Como resultado, uma parte significativa dos novos sites cria um ambiente informacional “esterilmente amigável”. Há menos avaliações duras e conflitos, mas também menos debate humano vivo ## O que não foi confirmado Algumas preocupações populares não receberam confirmação estatística. Os pesquisadores não encontraram correlação significativa entre o crescimento de conteúdo por IA e a redução na precisão factual, aumento de erros evidentes ou uniformização estilística dos textos em um único padrão ![](https://img-cdn.gateio.im/social/moments-9a7cbf8a358ec7903e7200f557fac502)À esquerda: correlação entre conteúdo por IA e hipóteses. À direita: proporção de adultos americanos concordando com cada hipótese. Fonte: GitHub Os cientistas também destacaram um efeito que até agora vinha sendo discutido principalmente teoricamente — o colapso do modelo (model collapse) Se novas redes neurais forem treinadas com dados contendo muito conteúdo por IA, o sistema começa a processar suas próprias respostas médias. Isso reduz a variabilidade, prejudica a qualidade e ameaça fazer com que, no futuro, os LLMs aprendam não com humanos, mas com o “eco sintético” de seus predecessores. Especialistas, junto com o Internet Archive, planejam transformar a pesquisa em um sistema de monitoramento contínuo da proporção de conteúdo por IA na internet Lembrando que, em meados de abril, a Universidade de Stanford destacou o ritmo acelerado do desenvolvimento de IA. Os pesquisadores informaram que as redes neurais quase igualaram os humanos na realização de tarefas no computador.
0
0
0
0