Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas adicionais
Acabei de perceber detalhes interessantes sobre Sam Altman e o que ele está fazendo com a OpenAI. O conflito entre o que ele diz publicamente e o que faz nos bastidores é extraordinário.
Vamos começar com um evento recente em São Francisco, no dia 10 de abril, por volta das 03h40. Um jovem de 20 anos chamado Daniel Moreno-Gama lançou uma bomba de gasolina na porta do apartamento de Altman. O fogo consumiu a porta e ele fugiu. Cerca de uma hora depois, a mesma pessoa apareceu perto do escritório da OpenAI e ameaçou incendiar novamente, antes de ser detida.
Dois dias depois, em 12 de abril, às 01h40, um Honda estacionado na rua ao lado da casa de Altman foi atingido por tiros. Um passageiro estendeu a mão pela janela e disparou contra a casa. Câmeras de segurança registraram a placa. Posteriormente, duas pessoas foram presas, ambas acusadas de disparo culposo.
O que é interessante é que o suspeito do primeiro ataque, Moreno-Gama, é alguém preocupado com IA avançada. Ele escreveu nas redes sociais, citando Dune, para argumentar que a falha na alinhamento da IA representa um risco à existência da humanidade. Criticou líderes tecnológicos que arriscam o destino da humanidade em busca de uma ideia de "pós-humanismo".
Após o primeiro ataque, Altman escreveu um post no blog, reconhecendo a posição moral dos opositores e pedindo uma discussão pública " menos direta e comparativa". Ele também respondeu a um artigo aprofundado da The New Yorker, publicado pouco antes do ataque, dizendo: "Avaliei o poder das narrativas na mídia e as palavras são insuficientes". Dois dias depois, sua residência foi atingida por tiros novamente.
Esse episódio está ligado a uma tendência maior. Em dezembro de 2024, o CEO da UnitedHealthcare foi morto a tiros fora de um hotel. O suspeito era um graduado de uma universidade de elite, que deixou uma mensagem criticando a indústria de seguros de saúde. O caso gerou reações incomuns nas redes sociais, com muitos demonstrando empatia pelo perpetrador.
Após esse incidente, a segurança dos executivos passou de uma "vantagem" para uma "necessidade de sobrevivência", segundo a Fortune. A taxa de ataques físicos a altos executivos de grandes empresas aumentou 225% desde 2023. Em empresas do índice S&P 500, 33,8% relataram custos com segurança de executivos, contra 23,3% em 2020.
O custo médio de segurança corporativa foi de 130 mil dólares, um aumento de 20% em relação ao ano anterior, e dobrou em cinco anos. A indústria de IA é a que mais sofre com essa tendência atualmente.
Os custos de segurança dos CEOs das 10 maiores empresas de tecnologia em 2024 totalizaram mais de 45 milhões de dólares. Mark Zuckerberg gastou mais de 27 milhões, mais do que o total dos custos dos CEOs da Apple, Google e outras quatro empresas. Jensen Huang, da NVIDIA, gastou 3,5 milhões em 2025, um aumento de 59% em relação ao ano anterior. Sunaï Pichai, do Google, gastou 8,27 milhões, um aumento de 22%.
Por outro lado, a indústria de IA tem algo que outras indústrias não têm: os próprios criadores acreditam que essa tecnologia pode destruir a civilização. Uma pesquisa da Pew em 2025, com 28.333 pessoas ao redor do mundo, revelou que apenas 16% se sentiam empolgados com IA, enquanto 34% estavam preocupados. O mais surpreendente é que pessoas com maior escolaridade e renda demonstraram mais preocupação com IA fora de controle.
Recentemente, a casa de um membro do conselho municipal de Indianapolis, Ron Jibson, foi atingida por 13 tiros. Seu filho de 8 anos acordou com o som dos disparos. No portão, havia uma nota manuscrita dizendo: "Proibido construir centros de dados". O FBI investigou. Pesquisadores da Universidade de Washington, de Georgetown, apontam que centros de dados estão se tornando alvos de grupos radicais anti-tecnologia e anti-governo.
Esse medo não é segredo na indústria, mas não é falado abertamente. Altman construiu um bunker em Wyoming em 2016, o mesmo ano em que a OpenAI foi fundada. Enquanto discursava que IA é a maior oportunidade da humanidade, ele também estava acumulando armas e se preparando para forças civis.
A narrativa principal da OpenAI nos últimos cinco anos tem sido reforçar a gravidade da ameaça de "existência" da AGI, para que governos deem atenção à regulação, investidores entendam os riscos e a indústria perceba que essa corrida não pode ser perdida. A frase "esta é a tecnologia mais perigosa da história da humanidade", uma vez divulgada, não ficará restrita à tecnologia. Ela será transmitida e, em alguns casos, se tornará uma ordem de ação.
Moreno-Gama escreveu no Instagram: "Progresso exponencial aliado à incoerência é igual a risco de sobrevivência". Essa estrutura de argumentação tem origem em documentos principais na pesquisa de segurança de IA, muitos apoiados ou endossados pela própria OpenAI.
Em 27 de fevereiro deste ano, a OpenAI assinou um contrato com o Departamento de Defesa dos EUA, permitindo que o Exército use o ChatGPT em redes confidenciais de defesa. No mesmo dia, Altman apoiou publicamente a posição da Anthropic de limitar o uso de IA militar.
A desinstalação do ChatGPT aumentou 295% em um dia, avaliações de uma estrela subiram 775% em 24 horas. O movimento QuitGPT reuniu mais de 1,5 milhão de participantes. Em 21 de março, cerca de 200 manifestantes marcharam em São Francisco, cruzando a Anthropic, OpenAI e xAI, pedindo que os CEOs interrompessem o desenvolvimento de IA avançada. Ao mesmo tempo, Londres realizou a maior marcha contra IA já registrada.
As bunkers e seguranças de Altman foram projetados para lidar com dois tipos de risco diferentes: um vindo de pessoas externas, outro de suas próprias criações. Ele leva esses riscos a sério, mas publicamente admite apenas um deles.
Um artigo aprofundado da The New Yorker, publicado na semana do primeiro ataque, entrevistou mais de 100 testemunhas. A principal alegação é simplesmente "não confiável". O artigo cita um ex-membro do conselho da OpenAI chamando Altman de "pessoa com personalidade antissocial" e "não vinculada à verdade". Vários colegas descrevem que ele muda de postura sobre segurança de IA repetidamente e ajusta sua estrutura de poder conforme necessário.
Em sua postagem, Altman admite que tende a evitar conflitos. Ele constrói uma narrativa pública de que "IA é uma ameaça à existência" para arrecadação de fundos e regulação. Mas, no final, essa ferramenta escapou de seu controle, circulou uma vez e voltou a bater na sua porta.