Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Sam Altman analisa a estratégia da OpenAI face aos desafios da defesa americana em matéria de IA
Em março de 2025, Sam Altman, CEO da OpenAI, organizou uma sessão pública de perguntas e respostas na plataforma X para esclarecer as circunstâncias em torno do contrato entre a OpenAI e o Departamento de Defesa dos Estados Unidos. Esta troca gerou um grande envolvimento: 6,6 milhões de visualizações e mais de 7 500 respostas, refletindo o interesse crescente da comunidade tecnológica pelas implicações das parcerias de IA com o governo americano.
Negociações prévias e recusas de contratos classificados
Segundo Sam Altman, a OpenAI tinha dialogado apenas sobre colaborações não classificadas nos meses anteriores e tinha deliberadamente recusado várias propostas relacionadas com áreas classificadas. Essas mesmas oportunidades foram posteriormente oferecidas à Anthropic. No entanto, após o Departamento de Defesa dos EUA ter rejeitado a colaboração com a Anthropic, as autoridades aceleraram abruptamente o lançamento de suas iniciativas classificadas com a OpenAI. Altman justificou a decisão de assinar rapidamente este contrato como uma necessidade de « desarmar a situação » e esclareceu que negociou para obter condições iguais para todos os outros laboratórios de IA envolvidos.
Anthropic, classificação e implicações na indústria
Quando questionado sobre a sua ausência de defesa pública da Anthropic, Sam Altman foi direto. Ele qualificou a decisão de classificar a Anthropic como « risco na cadeia de abastecimento » como « catastrófica para a indústria, para o país e para a própria Anthropic ». Segundo ele, trata-se de « uma decisão prejudicial do Departamento de Defesa dos EUA » que espera que seja revista. No entanto, Altman suavizou seu apoio ao sugerir que a Anthropic parecia priorizar a incorporação de cláusulas restritivas específicas no contrato, mais do que o cumprimento da legislação vigente, e que poderia buscar um controle operacional superior ao seu.
Limites éticos e constitucionais da OpenAI
Questionado sobre os limites éticos, Sam Altman afirmou sem rodeios: « Se nos pedirem para fazer algo inconstitucional ou ilegal, sairemos. Venham nos visitar na prisão. » Esta formulação direta ilustra a postura firme da OpenAI quanto aos limites inegociáveis de sua colaboração com o governo.
Democratização versus vigilância: o dilema da IA
O CEO da OpenAI abordou a questão delicada da vigilância no exterior. Reconheceu seu desconforto pessoal com a vigilância estrangeira conduzida pelas forças armadas americanas, afirmando que a « democratização » da IA continua sendo seu princípio orientador, um objetivo potencialmente contradito pelas aplicações militares. Contudo, esclareceu: « Não acho que seja meu papel decidir essa questão. » Esta declaração revela a tensão entre as convicções pessoais de Altman e as realidades da parceria estratégica.
A questão metapolítica: nacionalização e AGI
Ao concluir suas explicações, Sam Altman levantou uma questão « implicitamente presente em muitas perguntas, mas nunca colocada diretamente »: o que aconteceria se o governo dos EUA tentasse nacionalizar a OpenAI ou outros projetos de IA de grande escala? Revelou que « há muito tempo considero que o desenvolvimento de uma AGI talvez devesse estar sob iniciativa governamental », sugerindo assim que o debate sobre o controle da IA vai muito além das parcerias atuais.