*Dados atualizados pela última vez: 2026-04-27 18:41 (UTC+8)
Em 2026-04-27 18:41, o OpenAI (OPENAI) está cotado a €0, com uma capitalização de mercado total de --, um Índice P/L de 0,00 e um rendimento de dividendo de 0,00%. Hoje, o preço das ações oscilou entre €0 e €0. O preço atual está 0,00% acima do mínimo do dia e 0,00% abaixo do máximo do dia, com um volume de negociação de --. Ao longo das últimas 52 semanas, OPENAI esteve em negociação entre €0 e €0, estando atualmente a 0,00% do máximo das 52 semanas.
Estatísticas principais de OPENAI
Saiba mais sobre OpenAI (OPENAI)
Artigos Gate Learn
Por que é que a OpenAI não quer que a sua ‘ação’ seja negociada na Robinhood?
A Robinhood lança ações tokenizadas da OpenAI e da SpaceX, gerando controvérsia. Este artigo analisa a estrutura legal, os caminhos operacionais e as reações da comunidade à "tokenização de ações", explorando se se trata de uma tentativa de democracia financeira ou de um produto especulativo disfarçado de igualdade.
2025-07-07
ChatGPT da OpenAI Prevê Preços do XRP e Cardano: Insights de Insider Revelados
Este artigo interpreta como o ChatGPT da OpenAI prevê as tendências de preços do XRP e do Cardano até ao final de 2025, e combina as condições de mercado mais recentes e os principais fatores de impulso para fornecer referências claras para os investidores em criptomoedas.
2025-06-19
Estudei IA e, mais tarde, ingressei como investigador na OpenAI
Este método distingue-se da memorização tradicional ao evitar armadilhas recorrentes para utilizadores de IA, como a estagnação cognitiva, através de um modelo universal de cinco etapas. Capacita não especialistas a adquirir rapidamente múltiplas competências, antecipa tendências profissionais na era das empresas individuais e proporciona orientações práticas e imediatas.
2025-12-19
Blogues
# Comparação das Melhores Plataformas de Investimento Pré-IPO em 2026: Porque a Gate Merece a Sua Atenção
Este artigo apresenta uma análise aprofundada do mecanismo de notas espelhadas dos Pre-IPOs da Gate, destacando as principais diferenças face às plataformas convencionais. O objetivo é ajudá-lo a identificar a melhor forma de participar em unicórnios como a SpaceX e a OpenAI antes da sua entrada em bolsa.
2026-04-27
Porque Continuam a Subir as Avaliações Pré-IPO em 2026? Análise dos Três Principais Fatores
Em 2026, o mercado global de pré-IPO está a registar uma valorização sem precedentes. Desde a SpaceX à OpenAI, as avaliações dos unicórnios não cotados estão a aumentar a um ritmo notável.
2026-04-24
Podem os investidores particulares aceder à SpaceX e à OpenAI? Guia de participação em pré-IPOs da Gate
Este artigo oferece uma análise aprofundada sobre os Gate Pre-IPOs e explica como pode começar a investir em empresas promissoras como a SpaceX e a OpenAI antes da sua entrada em bolsa, com um investimento mínimo de 100 USDT.
2026-04-22
Perguntas Frequentes sobre OpenAI (OPENAI)
Qual é o preço das ações de OpenAI (OPENAI) hoje?
Quais são os preços máximo e mínimo das últimas 52 semanas para OpenAI (OPENAI)?
Qual é o índice preço-lucro (P/L) de OpenAI (OPENAI)? O que indica este valor?
Qual é a capitalização de mercado de OpenAI (OPENAI)?
Qual é o lucro por ação (EPS) trimestral mais recente de OpenAI (OPENAI)?
Deve comprar ou vender OpenAI (OPENAI) agora?
Que fatores podem influenciar o preço das ações da OpenAI (OPENAI)?
Como comprar ações da OpenAI (OPENAI)?
Aviso de Risco
Isenção de responsabilidade
Outros mercados de negociação
Últimas Notícias OpenAI (OPENAI)
OpenAI e AWS para Acolher um Evento para Clientes a 28 de Abril
Notícia do Gate, 27 de Abril — Os executivos da (AWS) e da OpenAI vão acolher um evento para clientes amanhã, 28 de Abril, segundo o The Information. A OpenAI afirmou que agora pode disponibilizar todos os seus produtos aos clientes de qualquer fornecedor de serviços em nuvem.
2026-04-27 06:31DeepSeek reduz preços do V4-Pro em 75%, corta custos de cache da API para um décimo
Mensagem de Notícias da Gate, 27 de Abril — A DeepSeek anunciou um desconto de 75% no seu novo modelo V4-Pro para programadores e reduziu os preços de acerto de cache de entrada em toda a sua gama de APIs para um décimo dos níveis anteriores. O modelo V4, lançado a 25 de Abril nas versões Pro e Flash, foi otimizado para os processadores Ascend da Huawei. A DeepSeek disse que o V4-Pro tem melhor desempenho do que outros modelos de código aberto em benchmarks de conhecimento do mundo e fica apenas em segundo lugar atrás do Gemini-Pro-3.1 da Google, um modelo proprietário. A família V4 foi concebida especificamente para agentes de IA a lidar com tarefas complexas além das capacidades de um chatbot. Os custos da API V4-Pro já ficam abaixo dos principais concorrentes ocidentais, com preços de $3.48 por milhão de tokens de saída em comparação com $30 para o GPT-4.5 da OpenAI. A tabela de preços do V4-Flash está em $0.14 por milhão de tokens de entrada e $0.28 por milhão de tokens de saída, o que pode permitir aplicações economicamente eficientes, como rever bases de código inteiras ou documentos regulamentares em solicitações únicas.
2026-04-27 05:17GPT-5.5 Regressa ao Estado da Arte na Codificação, mas a OpenAI Muda os Benchmarks Depois de Perder para o Opus 4.7
Gate News mensagem, 27 de Abril — A SemiAnalysis, uma empresa de análise de semicondutores e IA, publicou um benchmark comparativo de assistentes de codificação, incluindo GPT-5.5, Claude Opus 4.7 e DeepSeek V4. A principal conclusão: GPT-5.5 marca o primeiro regresso da OpenAI ao estado da arte em modelos de codificação em seis meses, com engenheiros da SemiAnalysis agora a alternar entre Codex e Claude Code após antes dependerem quase exclusivamente de Claude. O GPT-5.5 baseia-se numa nova abordagem de pré-treinamento com o nome de código "Spud" e representa a primeira expansão do OpenAI da escala de pré-treinamento desde o GPT-4.5. Em testes práticos, surgiu uma divisão clara de responsabilidades. Claude trata do planeamento de novos projectos e da configuração inicial, enquanto Codex se destaca em correcções de bugs que exigem raciocínio intensivo. O Codex mostra uma compreensão mais forte de estruturas de dados e raciocínio lógico, mas tem dificuldades em inferir intenções de utilizador ambíguas. Numa tarefa única no mesmo painel, o Claude replicou automaticamente o layout da página de referência, mas fabricou grandes quantidades de dados, enquanto o Codex ignorou o layout mas entregou dados significativamente mais precisos. A análise revela um detalhe de manipulação do benchmark: um post de Fevereiro da OpenAI incentivava a indústria a adoptar o SWE-bench Pro como o novo padrão para benchmarks de codificação. No entanto, o anúncio do GPT-5.5 mudou para um novo benchmark chamado "Expert-SWE." O motivo, escondido nas letras pequenas, é que o GPT-5.5 foi ultrapassado pelo Opus 4.7 no SWE-bench Pro e ficou muito aquém do Mythos (77.8%), ainda não lançado da Anthropic. Quanto ao Opus 4.7, a Anthropic publicou uma análise pós-mortem uma semana após o lançamento, reconhecendo três bugs no Claude Code que persistiram por várias semanas de Março a Abril, afectando quase todos os utilizadores. Vários engenheiros tinham previamente reportado degradação de desempenho na versão 4.6 mas foram descartados como observações subjectivas. Além disso, o novo tokenizador do Opus 4.7 aumenta o uso de tokens em até 35%, o que a Anthropic admitiu abertamente — constituindo, na prática, um aumento de preço oculto. O DeepSeek V4 foi avaliado como "acompanhar o ritmo da fronteira mas não liderar," posicionando-se como a alternativa de menor custo entre os modelos de código fechado. A análise também notou que "o Claude continua a superar o DeepSeek V4 Pro em tarefas de escrita chinesa de alta dificuldade," comentando que "o Claude venceu o modelo chinês na sua própria língua." O artigo introduz um conceito-chave: a precificação do modelo deve ser avaliada por "custo por tarefa" e não por "custo por token." A precificação do GPT-5.5 é o dobro da do GPT-5.4 (input $5, output $30 por milhão de tokens), mas conclui as mesmas tarefas usando menos tokens, tornando o custo real não necessariamente mais alto. Os dados iniciais da SemiAnalysis mostram que a razão input-para-output do Codex é de 80:1, inferior à do Claude Code, que é de 100:1.
2026-04-27 03:21A OpenAI faz parceria com a MediaTek e a Qualcomm para desenvolver um processador de smartphone com IA; a Foxconn Connector deverá iniciar a produção em 2028
Mensagem do Gate News, 27 de abril — A OpenAI está a colaborar com a MediaTek e a Qualcomm para desenvolver processadores para smartphones, de acordo com a análise da cadeia de abastecimento do analista da Tianfeng International Securities, Ming-Chi Kuo. A Foxconn Connector (Luxshare Precision) será o parceiro exclusivo de conceção do sistema e de fabrico, prevendo-se que a produção em massa comece em 2028. Espera-se que as especificações e os fornecedores sejam finalizados até ao final de 2026 ou no primeiro trimestre de 2027. Kuo explicou que a principal razão da OpenAI para entrar no mercado de smartphones é que controlar simultaneamente o sistema operativo e o hardware é essencial para fornecer serviços abrangentes de agentes de IA. Os smartphones são os únicos dispositivos capazes de aceder em tempo real à informação contextual completa dos utilizadores, o que é fundamental para o raciocínio dos agentes de IA. Em vez de utilizarem várias aplicações, os utilizadores irão concretizar tarefas e satisfazer necessidades através dos seus telemóveis — uma mudança fundamental na forma como os smartphones são definidos. Em termos comerciais, a OpenAI poderá agrupar serviços de subscrição com hardware e colaborar com programadores para construir um ecossistema de aplicações de agentes de IA. A conceção do processador dará prioridade à eficiência energética, à gestão da hierarquia de memória e à execução local de modelos mais pequenos, enquanto as tarefas complexas serão delegadas a IA baseada na nuvem. Kuo citou o chip TPU Zebrafish da MediaTek, desenvolvido para a Google, como ponto de referência, salientando que um único chip Zebrafish gera receitas aproximadamente equivalentes a 30 a 40 processadores de smartphone para agentes de IA. Com as remessas globais de smartphones premium a atingirem cerca de 300 a 400 milhões de unidades por ano, os ciclos de substituição de dispositivos poderão tornar-se um novo motor de crescimento tanto para a MediaTek como para a Qualcomm. Para a Luxshare Precision, este projeto oferece a oportunidade de garantir uma vantagem de primeira-mover na produção de smartphones da próxima geração, uma área em que tem lutado para ultrapassar a posição da Foxconn na cadeia de abastecimento da Apple. A iniciativa representa uma mudança significativa na forma como as capacidades de IA são integradas no hardware de consumo, com implicações para a indústria de smartphones mais alargada e para o emergente ecossistema de agentes de IA.
2026-04-27 01:13Sam Altman Apresenta os Cinco Princípios Operacionais da OpenAI e Sinaliza Possíveis Restrições Futuras às Capacidades dos Modelos para a Segurança
Mensagem da Gate News, 27 de abril — O CEO da OpenAI, Sam Altman, publicou cinco princípios operacionais para a empresa sob a sua assinatura pessoal, sinalizando que a OpenAI poderá restringir o acesso dos utilizadores às capacidades do modelo em determinados períodos para priorizar a segurança. No comunicado, Altman descreveu um potencial cenário futuro em que a empresa teria de "sacrificar algum grau de capacitação em troca de maior resiliência." Altman sublinhou que decisões críticas de IA devem ser tomadas por meio de processos democráticos, e não determinadas apenas por laboratórios de IA. Ele defendeu as recentes compras, em grande escala, de capacidade de computação por parte da OpenAI, a construção de centros de dados globais e os esforços de integração vertical, afirmando que o objetivo é reduzir os custos de IA para tornar a tecnologia acessível a todos. Altman indicou que os governos poderão precisar de explorar novos modelos económicos para garantir a partilha de valor. Ele também destacou um cenário de risco específico: modelos extremamente poderosos poderiam baixar o limiar para criar patogénios novéis, exigindo uma resposta a nível da sociedade. Altman refletiu sobre a hesitação histórica da OpenAI em libertar os pesos do GPT-2, reconhecendo que a cautela, à luz do que se sabe depois, foi excessiva, mas salientou que isso levou à estratégia de implementação iterativa que a OpenAI continua a empregar hoje.





























































































































































































































































































































