OPENAI

Preço OpenAI

OPENAI
€0
+€0(0,00%)
Sem dados

*Dados atualizados pela última vez: 2026-04-27 18:41 (UTC+8)

Em 2026-04-27 18:41, o OpenAI (OPENAI) está cotado a €0, com uma capitalização de mercado total de --, um Índice P/L de 0,00 e um rendimento de dividendo de 0,00%. Hoje, o preço das ações oscilou entre €0 e €0. O preço atual está 0,00% acima do mínimo do dia e 0,00% abaixo do máximo do dia, com um volume de negociação de --. Ao longo das últimas 52 semanas, OPENAI esteve em negociação entre €0 e €0, estando atualmente a 0,00% do máximo das 52 semanas.

Estatísticas principais de OPENAI

Índice P/L0,00
Rendimento de Dividendos (TTM)0,00%
Ações em circulação0,00

Saiba mais sobre OpenAI (OPENAI)

Perguntas Frequentes sobre OpenAI (OPENAI)

Qual é o preço das ações de OpenAI (OPENAI) hoje?

x
OpenAI (OPENAI) está atualmente a negociar a €0, com uma variação de 24h de 0,00%. O intervalo de negociação das últimas 52 semanas é de €0–€0.

Quais são os preços máximo e mínimo das últimas 52 semanas para OpenAI (OPENAI)?

x

Qual é o índice preço-lucro (P/L) de OpenAI (OPENAI)? O que indica este valor?

x

Qual é a capitalização de mercado de OpenAI (OPENAI)?

x

Qual é o lucro por ação (EPS) trimestral mais recente de OpenAI (OPENAI)?

x

Deve comprar ou vender OpenAI (OPENAI) agora?

x

Que fatores podem influenciar o preço das ações da OpenAI (OPENAI)?

x

Como comprar ações da OpenAI (OPENAI)?

x

Aviso de Risco

O mercado de ações envolve um elevado nível de risco e volatilidade de preços. O valor do seu investimento pode aumentar ou diminuir, e poderá não recuperar o montante total investido. O desempenho passado não é um indicador fiável de resultados futuros. Antes de tomar qualquer decisão de investimento, deve avaliar cuidadosamente a sua experiência de investimento, situação financeira, objetivos de investimento e tolerância ao risco, bem como realizar a sua própria pesquisa. Sempre que apropriado, consulte um consultor financeiro independente.

Isenção de responsabilidade

O conteúdo desta página é fornecido apenas para fins informativos e não constitui aconselhamento de investimento, aconselhamento financeiro ou recomendações de negociação. A Gate não poderá ser responsabilizada por qualquer perda ou dano resultante dessas decisões financeiras. Além disso, tenha em atenção que a Gate poderá não conseguir prestar o serviço completo em determinados mercados e jurisdições, incluindo, mas não se limitando, aos Estados Unidos da América, Canadá, Irão e Cuba. Para mais informações sobre Localizações Restritas, consulte o Acordo do Utilizador.

Outros mercados de negociação

Últimas Notícias OpenAI (OPENAI)

2026-04-27 13:12

OpenAI e AWS para Acolher um Evento para Clientes a 28 de Abril

Notícia do Gate, 27 de Abril — Os executivos da (AWS) e da OpenAI vão acolher um evento para clientes amanhã, 28 de Abril, segundo o The Information. A OpenAI afirmou que agora pode disponibilizar todos os seus produtos aos clientes de qualquer fornecedor de serviços em nuvem.

2026-04-27 06:31

DeepSeek reduz preços do V4-Pro em 75%, corta custos de cache da API para um décimo

Mensagem de Notícias da Gate, 27 de Abril — A DeepSeek anunciou um desconto de 75% no seu novo modelo V4-Pro para programadores e reduziu os preços de acerto de cache de entrada em toda a sua gama de APIs para um décimo dos níveis anteriores. O modelo V4, lançado a 25 de Abril nas versões Pro e Flash, foi otimizado para os processadores Ascend da Huawei. A DeepSeek disse que o V4-Pro tem melhor desempenho do que outros modelos de código aberto em benchmarks de conhecimento do mundo e fica apenas em segundo lugar atrás do Gemini-Pro-3.1 da Google, um modelo proprietário. A família V4 foi concebida especificamente para agentes de IA a lidar com tarefas complexas além das capacidades de um chatbot. Os custos da API V4-Pro já ficam abaixo dos principais concorrentes ocidentais, com preços de $3.48 por milhão de tokens de saída em comparação com $30 para o GPT-4.5 da OpenAI. A tabela de preços do V4-Flash está em $0.14 por milhão de tokens de entrada e $0.28 por milhão de tokens de saída, o que pode permitir aplicações economicamente eficientes, como rever bases de código inteiras ou documentos regulamentares em solicitações únicas.

2026-04-27 05:17

GPT-5.5 Regressa ao Estado da Arte na Codificação, mas a OpenAI Muda os Benchmarks Depois de Perder para o Opus 4.7

Gate News mensagem, 27 de Abril — A SemiAnalysis, uma empresa de análise de semicondutores e IA, publicou um benchmark comparativo de assistentes de codificação, incluindo GPT-5.5, Claude Opus 4.7 e DeepSeek V4. A principal conclusão: GPT-5.5 marca o primeiro regresso da OpenAI ao estado da arte em modelos de codificação em seis meses, com engenheiros da SemiAnalysis agora a alternar entre Codex e Claude Code após antes dependerem quase exclusivamente de Claude. O GPT-5.5 baseia-se numa nova abordagem de pré-treinamento com o nome de código "Spud" e representa a primeira expansão do OpenAI da escala de pré-treinamento desde o GPT-4.5. Em testes práticos, surgiu uma divisão clara de responsabilidades. Claude trata do planeamento de novos projectos e da configuração inicial, enquanto Codex se destaca em correcções de bugs que exigem raciocínio intensivo. O Codex mostra uma compreensão mais forte de estruturas de dados e raciocínio lógico, mas tem dificuldades em inferir intenções de utilizador ambíguas. Numa tarefa única no mesmo painel, o Claude replicou automaticamente o layout da página de referência, mas fabricou grandes quantidades de dados, enquanto o Codex ignorou o layout mas entregou dados significativamente mais precisos. A análise revela um detalhe de manipulação do benchmark: um post de Fevereiro da OpenAI incentivava a indústria a adoptar o SWE-bench Pro como o novo padrão para benchmarks de codificação. No entanto, o anúncio do GPT-5.5 mudou para um novo benchmark chamado "Expert-SWE." O motivo, escondido nas letras pequenas, é que o GPT-5.5 foi ultrapassado pelo Opus 4.7 no SWE-bench Pro e ficou muito aquém do Mythos (77.8%), ainda não lançado da Anthropic. Quanto ao Opus 4.7, a Anthropic publicou uma análise pós-mortem uma semana após o lançamento, reconhecendo três bugs no Claude Code que persistiram por várias semanas de Março a Abril, afectando quase todos os utilizadores. Vários engenheiros tinham previamente reportado degradação de desempenho na versão 4.6 mas foram descartados como observações subjectivas. Além disso, o novo tokenizador do Opus 4.7 aumenta o uso de tokens em até 35%, o que a Anthropic admitiu abertamente — constituindo, na prática, um aumento de preço oculto. O DeepSeek V4 foi avaliado como "acompanhar o ritmo da fronteira mas não liderar," posicionando-se como a alternativa de menor custo entre os modelos de código fechado. A análise também notou que "o Claude continua a superar o DeepSeek V4 Pro em tarefas de escrita chinesa de alta dificuldade," comentando que "o Claude venceu o modelo chinês na sua própria língua." O artigo introduz um conceito-chave: a precificação do modelo deve ser avaliada por "custo por tarefa" e não por "custo por token." A precificação do GPT-5.5 é o dobro da do GPT-5.4 (input $5, output $30 por milhão de tokens), mas conclui as mesmas tarefas usando menos tokens, tornando o custo real não necessariamente mais alto. Os dados iniciais da SemiAnalysis mostram que a razão input-para-output do Codex é de 80:1, inferior à do Claude Code, que é de 100:1.

2026-04-27 03:21

A OpenAI faz parceria com a MediaTek e a Qualcomm para desenvolver um processador de smartphone com IA; a Foxconn Connector deverá iniciar a produção em 2028

Mensagem do Gate News, 27 de abril — A OpenAI está a colaborar com a MediaTek e a Qualcomm para desenvolver processadores para smartphones, de acordo com a análise da cadeia de abastecimento do analista da Tianfeng International Securities, Ming-Chi Kuo. A Foxconn Connector (Luxshare Precision) será o parceiro exclusivo de conceção do sistema e de fabrico, prevendo-se que a produção em massa comece em 2028. Espera-se que as especificações e os fornecedores sejam finalizados até ao final de 2026 ou no primeiro trimestre de 2027. Kuo explicou que a principal razão da OpenAI para entrar no mercado de smartphones é que controlar simultaneamente o sistema operativo e o hardware é essencial para fornecer serviços abrangentes de agentes de IA. Os smartphones são os únicos dispositivos capazes de aceder em tempo real à informação contextual completa dos utilizadores, o que é fundamental para o raciocínio dos agentes de IA. Em vez de utilizarem várias aplicações, os utilizadores irão concretizar tarefas e satisfazer necessidades através dos seus telemóveis — uma mudança fundamental na forma como os smartphones são definidos. Em termos comerciais, a OpenAI poderá agrupar serviços de subscrição com hardware e colaborar com programadores para construir um ecossistema de aplicações de agentes de IA. A conceção do processador dará prioridade à eficiência energética, à gestão da hierarquia de memória e à execução local de modelos mais pequenos, enquanto as tarefas complexas serão delegadas a IA baseada na nuvem. Kuo citou o chip TPU Zebrafish da MediaTek, desenvolvido para a Google, como ponto de referência, salientando que um único chip Zebrafish gera receitas aproximadamente equivalentes a 30 a 40 processadores de smartphone para agentes de IA. Com as remessas globais de smartphones premium a atingirem cerca de 300 a 400 milhões de unidades por ano, os ciclos de substituição de dispositivos poderão tornar-se um novo motor de crescimento tanto para a MediaTek como para a Qualcomm. Para a Luxshare Precision, este projeto oferece a oportunidade de garantir uma vantagem de primeira-mover na produção de smartphones da próxima geração, uma área em que tem lutado para ultrapassar a posição da Foxconn na cadeia de abastecimento da Apple. A iniciativa representa uma mudança significativa na forma como as capacidades de IA são integradas no hardware de consumo, com implicações para a indústria de smartphones mais alargada e para o emergente ecossistema de agentes de IA.

2026-04-27 01:13

Sam Altman Apresenta os Cinco Princípios Operacionais da OpenAI e Sinaliza Possíveis Restrições Futuras às Capacidades dos Modelos para a Segurança

Mensagem da Gate News, 27 de abril — O CEO da OpenAI, Sam Altman, publicou cinco princípios operacionais para a empresa sob a sua assinatura pessoal, sinalizando que a OpenAI poderá restringir o acesso dos utilizadores às capacidades do modelo em determinados períodos para priorizar a segurança. No comunicado, Altman descreveu um potencial cenário futuro em que a empresa teria de "sacrificar algum grau de capacitação em troca de maior resiliência." Altman sublinhou que decisões críticas de IA devem ser tomadas por meio de processos democráticos, e não determinadas apenas por laboratórios de IA. Ele defendeu as recentes compras, em grande escala, de capacidade de computação por parte da OpenAI, a construção de centros de dados globais e os esforços de integração vertical, afirmando que o objetivo é reduzir os custos de IA para tornar a tecnologia acessível a todos. Altman indicou que os governos poderão precisar de explorar novos modelos económicos para garantir a partilha de valor. Ele também destacou um cenário de risco específico: modelos extremamente poderosos poderiam baixar o limiar para criar patogénios novéis, exigindo uma resposta a nível da sociedade. Altman refletiu sobre a hesitação histórica da OpenAI em libertar os pesos do GPT-2, reconhecendo que a cautela, à luz do que se sabe depois, foi excessiva, mas salientou que isso levou à estratégia de implementação iterativa que a OpenAI continua a empregar hoje.

Publicações em alta sobre OpenAI (OPENAI)

Vortex_King

Vortex_King

8 minutos atrás
#GateSquareDaily #GateSquareDaily #Deepseek #AIPriceWar #AIAgentes A indústria de inteligência artificial entrou oficialmente numa nova batalha, e desta vez a competição já não se centra puramente na inteligência do modelo ou na dominância de benchmarks. Em vez disso, o foco mudou para eficiência de custos, escalabilidade e acessibilidade. O lançamento do DeepSeek V4 pela DeepSeek representa um ponto de viragem que pode redefinir a forma como os desenvolvedores, empresas e ecossistemas emergentes abordam a adoção de IA. Ao introduzir o V4-Pro e o V4-Flash com preços agressivos e disponibilidade de pesos abertos, a DeepSeek não está apenas a competir—está a reescrever as regras do jogo. Nos últimos anos, laboratórios de IA líderes como a OpenAI, Anthropic e Google dominaram o mercado com modelos de alto desempenho como GPT-5.5, Claude Opus 4.6 e Gemini 3.1 Pro. Estes modelos ultrapassaram os limites de raciocínio, codificação e capacidades multimodais, mas vieram com uma estrutura de custos que limitava a adoção generalizada em larga escala. A IA era poderosa, mas cara, e esse custo moldava a forma como era utilizada. As empresas tinham que gerir cuidadosamente o utilização de tokens, limitar experimentações e priorizar apenas as aplicações de maior valor. O DeepSeek V4 perturba toda esta estrutura ao reduzir dramaticamente o custo de inferência, mantendo um desempenho competitivo. Com o V4-Flash a um preço de uma fração de um dólar por milhão de tokens e o V4-Pro a oferecer capacidades quase de fronteira a custos significativamente reduzidos, a barreira económica para o uso de IA está a colapsar rapidamente. Isto não é apenas um desconto—é uma mudança estrutural que transforma a IA de um recurso premium para algo mais próximo de uma utilidade. Quando o custo da inteligência cai tão abruptamente, os padrões de utilização mudam, e surgem novas oportunidades em todo o ecossistema. Um dos impactos mais imediatos desta mudança é a aceleração da adoção por parte dos desenvolvedores. Startups e construtores independentes, que anteriormente estavam limitados por custos elevados de API, agora podem implementar IA em larga escala sem esgotar os seus orçamentos. Casos de uso de alto volume, como análise de documentos, assistentes de codificação automatizada e fluxos de trabalho contínuos de agentes, tornam-se economicamente viáveis. A inclusão de uma janela de contexto de 1 milhão de tokens reforça ainda mais esta capacidade, permitindo que conjuntos de dados, repositórios ou documentos legais inteiros sejam processados numa única solicitação. Isto elimina fragmentação e abre a porta a aplicações mais complexas e integradas. Ao mesmo tempo, esta estratégia de preços introduz uma pressão intensa sobre os líderes de mercado existentes. A diferença entre os preços do DeepSeek e os dos concorrentes não é incremental—é exponencial. Quando um modelo oferece desempenho comparável a sete a nove vezes menor custo, o processo de decisão para desenvolvedores e empresas muda drasticamente. As empresas agora têm que avaliar se pagar um prémio por ganhos marginais de desempenho é justificado, especialmente para aplicações onde um desempenho “suficiente” é suficiente. Esta dinâmica força os principais fornecedores de IA a reconsiderar as suas estratégias de preços, potencialmente levando a um ajustamento mais amplo na indústria. Outra dimensão crítica deste desenvolvimento é o aumento de modelos de pesos abertos. Ao lançar o V4 sob uma licença MIT, a DeepSeek permite que os desenvolvedores auto-hospedem, personalizem e ajustem o modelo sem ficarem presos a um ecossistema proprietário. Isto alinha-se de perto com os princípios de descentralização e composabilidade, particularmente no espaço cripto e blockchain. Agentes de IA, redes de inferência descentralizadas e ecossistemas baseados em tokens beneficiam todos de custos mais baixos e maior flexibilidade. Quando a inferência se torna acessível, a visão de inteligência autónoma e on-chain torna-se mais realista. O impacto nos agentes de IA é especialmente significativo. Sistemas baseados em agentes dependem de raciocínio iterativo e interação contínua, que podem rapidamente tornar-se caros sob modelos de preços tradicionais. Com inferência mais barata, estes sistemas podem operar com mais frequência e em maior escala, levando a um desempenho melhorado e a uma adoção mais ampla. Desde estratégias de trading automatizado até automação inteligente de fluxos de trabalho, a redução de custos traduz-se diretamente em maior capacidade. Isto cria um ciclo de retroalimentação onde custos mais baixos impulsionam maior utilização, o que por sua vez estimula mais inovação. Desenvolvimentos de hardware também desempenham um papel crucial neste panorama em evolução. O apoio da Huawei ao V4 através dos seus chips Ascend destaca o surgimento de um ecossistema alternativo de hardware de IA. Tradicionalmente, a indústria tem dependido fortemente de GPUs Nvidia, criando constrangimentos de fornecimento e desafios de preços. Ao validar o V4 em várias plataformas de hardware, a DeepSeek contribui para uma diversificação da infraestrutura que pode reduzir a dependência de um único fornecedor. Esta diversificação não só reduz custos, como também aumenta a resiliência na cadeia de fornecimento de IA. O conceito de uma pilha de IA verticalmente integrada—que combina modelos, chips e infraestrutura dentro de um único ecossistema—tem implicações estratégicas significativas. Permite maior controlo sobre desempenho, custos e escalabilidade, ao mesmo tempo que reduz a dependência de tecnologias externas. Para regiões que procuram independência tecnológica, esta abordagem oferece um caminho para construir capacidades de IA competitivas sem depender de hardware ou software estrangeiro. À medida que estes ecossistemas amadurecem, podem redesenhar o equilíbrio de poder global na indústria de IA. Apesar das suas vantagens, o DeepSeek V4 não está isento de limitações. Embora apresente um desempenho forte em vários benchmarks, não supera consistentemente os modelos líderes em todas as áreas. Por exemplo, em tarefas complexas de engenharia de software, modelos como o Claude Opus 4.7 ainda mantêm uma vantagem. Da mesma forma, em cenários de raciocínio profundo, o GPT-5.5 continua a liderar. Estas diferenças destacam a importância de alinhar a seleção do modelo com casos de uso específicos. Para aplicações críticas onde é necessário o máximo desempenho, modelos de maior custo podem ainda ser preferidos. Desafios operacionais também permanecem. A DeepSeek reconhece limitações na capacidade de computação de alta gama, o que pode afetar o throughput e a disponibilidade. Escalar a infraestrutura para atender à crescente procura é uma tarefa complexa, especialmente para modelos deste tamanho. Garantir desempenho consistente, fiabilidade e suporte será fundamental à medida que a adoção aumenta. A forma como a DeepSeek enfrenta estes desafios influenciará o seu impacto a longo prazo no mercado. Questões regulatórias acrescentam uma camada adicional de complexidade. Acusações relacionadas com práticas de treino de modelos e propriedade intelectual já surgiram, refletindo tensões mais amplas na indústria de IA. À medida que a competição se intensifica, questões sobre uso de dados, transparência e conformidade provavelmente tornar-se-ão mais proeminentes. Estes fatores podem influenciar a adoção empresarial, especialmente em regiões com quadros regulatórios rigorosos. Olhando para o futuro, várias tendências-chave provavelmente emergirão desta disrupção de preços. Primeiro, as empresas irão reavaliar as suas estratégias de IA, focando na eficiência de custos e no retorno do investimento. Se modelos como o V4-Pro puderem oferecer a maior parte das capacidades necessárias a uma fração do custo, tornar-se-ão opções atraentes para uma vasta gama de aplicações. Segundo, o impulso dos modelos de pesos abertos continuará a crescer, capacitando os desenvolvedores com maior controlo e flexibilidade. Terceiro, a diversificação de hardware acelerará, levando a soluções de infraestrutura mais competitivas e eficientes. Por fim, as respostas de preços dos players estabelecidos moldarão a próxima fase do mercado de IA, à medida que as empresas se adaptam ao novo cenário competitivo. Em essência, o lançamento do DeepSeek V4 marca o início de uma nova era na inteligência artificial. Ao quebrar a ligação entre capacidades avançadas e custos elevados, desafia suposições de longa data sobre como a IA deve ser precificada e implementada. Esta mudança tem implicações de largo alcance, desde acelerar a inovação até ampliar o acesso e redefinir a concorrência. À medida que a IA se torna mais acessível, a sua integração em aplicações do dia a dia aumentará. Empresas incorporarão IA em mais processos, desenvolvedores experimentarão mais livremente, e novos casos de uso emergirão em diversos setores. A democratização da IA pode levar a um aumento na criatividade e produtividade, à medida que mais pessoas acedem a ferramentas poderosas que antes estavam fora de alcance. Por fim, a importância deste desenvolvimento reside no seu potencial de transformar a IA de uma tecnologia especializada numa utilidade universal. A questão já não é quem tem o modelo mais poderoso, mas quem consegue oferecer inteligência significativa a um preço que permita uma adoção generalizada. Neste novo cenário, a eficiência de custos torna-se um fator-chave de sucesso, e a capacidade de escalar torna-se tão importante quanto a capacidade de inovar. A guerra de preços na IA não é apenas uma batalha competitiva—é um catalisador de mudança. E à medida que esta nova fase se desenrola, uma coisa é clara: o futuro da IA será definido não só por quão inteligente ela é, mas por quão acessível ela se torna.
0
1
0
0