A OpenAI afirma que está renegociando o seu acordo “apressado” com o Pentágono para incluir proibições explícitas sobre o uso da sua inteligência artificial para vigilância doméstica de cidadãos americanos — uma disposição que aborda uma das questões mais controversas no impasse entre o exército dos EUA e a indústria de IA.
Vídeo Recomendado
Numa nota interna partilhada nas redes sociais, o CEO da OpenAI, Sam Altman, afirmou que a empresa “não deveria ter apressado” a divulgação do acordo na sexta-feira.
“Os problemas são extremamente complexos e exigem uma comunicação clara,” escreveu. “Estávamos genuinamente a tentar desescalar a situação e evitar um desfecho muito pior, mas acho que pareceu apenas oportunista e descuidado.”
Segundo Altman, a nova redação do contrato estabelecerá que os sistemas de IA da OpenAI não deverão ser “intencionalmente utilizados para vigilância doméstica de pessoas e nacionais dos EUA,” em conformidade com a Quarta Emenda, a Lei de Segurança Nacional de 1947 e a Lei de Vigilância de Inteligência Estrangeira de 1978.
Katrina Mulligan, chefe de parcerias de segurança nacional da OpenAI e ex-funcionária sénior do Pentágono, NSC e DOJ, também afirmou que os componentes de inteligência de defesa — incluindo a Agência de Segurança Nacional, a Agência de Geoespacial de Inteligência e a Agência de Inteligência de Defesa — estariam proibidos de usar os serviços da OpenAI sob o acordo, e qualquer uso por essas agências exigiria uma modificação contratual separada.
Os termos renegociados também acrescentarão restrições explícitas relativas a dados adquiridos comercialmente — como registros de localização de telemóveis ou informações de aplicações de fitness — que têm sido uma área legal cinzenta. Segundo um relatório na The Atlantic, a rival Anthropic tinha especificamente procurado garantias semelhantes contra vigilância doméstica nas suas negociações com o Pentágono. A sua insistência em salvaguardas mais rigorosas para proibir o uso das suas ferramentas para vigilância foi, alegadamente, um dos principais obstáculos que acabaram por fazer colapsar essas negociações.
Apesar dos termos renegociados, especialistas jurídicos questionaram até que ponto as restrições são exequíveis.
“Parece-me uma melhoria significativa em relação à redação anterior no que diz respeito à vigilância, e fico contente por ver isso,” afirmou Charlie Bullock, investigador sénior do Institute for Law & AI, numa publicação na X. “Não aborda as preocupações com armas autónomas, nem afirma que o faz.”
Analistas independentes, assim como funcionários da OpenAI, também defenderam um processo em que advogados independentes pudessem rever o contrato completo e partilhar a sua análise com funcionários preocupados.
Reação negativa dos funcionários
Os termos renegociados surgem após a OpenAI ter enfrentado uma onda de críticas internas e externas à empresa. Altman já tinha reconhecido que a imagem de aceitar o acordo com o Pentágono horas depois do governo Trump ter classificado a Anthropic, sua rival, como um “risco na cadeia de abastecimento” por recusar um contrato sem salvaguardas explícitas de IA, “não parecia muito bem.” Isto era especialmente verdadeiro, uma vez que Altman tinha anteriormente declarado publicamente que apoiava as linhas vermelhas da Anthropic em relação à vigilância em massa e armas autónomas.
A Anthropic tinha procurado duas limitações rígidas nas negociações com o Pentágono: uma proibição do uso da sua IA para vigilância em massa de cidadãos americanos, e uma proibição de incorporar a sua tecnologia em sistemas de armas autónomas — definidos como aqueles capazes de decidir atacar alvos sem supervisão humana direta.
Críticos, incluindo Jonathan Iwry, investigador do Accountable AI Lab na Wharton School da Universidade da Pensilvânia, acusaram a OpenAI de prejudicar a Anthropic num momento crítico.
“O que é particularmente decepcionante é que o resto da indústria de IA não apoiou a Anthropic,” disse Iwry à Fortune. “Se essas empresas fossem sérias quanto ao compromisso com uma IA segura e responsável (sobre a qual construíram parte das suas reputações), poderiam ter unido forças e resistido ao Pentágono em nome do público. Em vez disso, deixaram a administração jogar umas contra as outras como concorrentes de mercado.”
Muitos funcionários da OpenAI assinaram uma carta aberta apoiando a Anthropic após o impasse. Os consumidores também demonstraram apoio enviando o Claude, assistente de IA da Anthropic, ao topo das classificações da App Store da Apple pela primeira vez, sugerindo que os utilizadores estavam a mudar em protesto. Graffiti de giz criticando a decisão da OpenAI também apareceu na calçada em frente às suas instalações em São Francisco.
Alguns investigadores da OpenAI chegaram a falar publicamente. Aidan McLaughlin, cientista de investigação na empresa, publicou na X que pessoalmente não achava “que este acordo valesse a pena,” numa publicação que recebeu quase 500.000 visualizações.
Junte-se a nós na Fortune Workplace Innovation Summit 19–20 de maio de 2026, em Atlanta. A próxima era de inovação no local de trabalho já chegou — e o manual antigo está a ser reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo irão reunir-se para explorar como a IA, a humanidade e a estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se já.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Sam Altman diz que a OpenAI está a renegociar com o Pentágono após um acordo ‘oportunista e descuidado’
A OpenAI afirma que está renegociando o seu acordo “apressado” com o Pentágono para incluir proibições explícitas sobre o uso da sua inteligência artificial para vigilância doméstica de cidadãos americanos — uma disposição que aborda uma das questões mais controversas no impasse entre o exército dos EUA e a indústria de IA.
Vídeo Recomendado
Numa nota interna partilhada nas redes sociais, o CEO da OpenAI, Sam Altman, afirmou que a empresa “não deveria ter apressado” a divulgação do acordo na sexta-feira.
“Os problemas são extremamente complexos e exigem uma comunicação clara,” escreveu. “Estávamos genuinamente a tentar desescalar a situação e evitar um desfecho muito pior, mas acho que pareceu apenas oportunista e descuidado.”
Segundo Altman, a nova redação do contrato estabelecerá que os sistemas de IA da OpenAI não deverão ser “intencionalmente utilizados para vigilância doméstica de pessoas e nacionais dos EUA,” em conformidade com a Quarta Emenda, a Lei de Segurança Nacional de 1947 e a Lei de Vigilância de Inteligência Estrangeira de 1978.
Katrina Mulligan, chefe de parcerias de segurança nacional da OpenAI e ex-funcionária sénior do Pentágono, NSC e DOJ, também afirmou que os componentes de inteligência de defesa — incluindo a Agência de Segurança Nacional, a Agência de Geoespacial de Inteligência e a Agência de Inteligência de Defesa — estariam proibidos de usar os serviços da OpenAI sob o acordo, e qualquer uso por essas agências exigiria uma modificação contratual separada.
Os termos renegociados também acrescentarão restrições explícitas relativas a dados adquiridos comercialmente — como registros de localização de telemóveis ou informações de aplicações de fitness — que têm sido uma área legal cinzenta. Segundo um relatório na The Atlantic, a rival Anthropic tinha especificamente procurado garantias semelhantes contra vigilância doméstica nas suas negociações com o Pentágono. A sua insistência em salvaguardas mais rigorosas para proibir o uso das suas ferramentas para vigilância foi, alegadamente, um dos principais obstáculos que acabaram por fazer colapsar essas negociações.
Apesar dos termos renegociados, especialistas jurídicos questionaram até que ponto as restrições são exequíveis.
“Parece-me uma melhoria significativa em relação à redação anterior no que diz respeito à vigilância, e fico contente por ver isso,” afirmou Charlie Bullock, investigador sénior do Institute for Law & AI, numa publicação na X. “Não aborda as preocupações com armas autónomas, nem afirma que o faz.”
Analistas independentes, assim como funcionários da OpenAI, também defenderam um processo em que advogados independentes pudessem rever o contrato completo e partilhar a sua análise com funcionários preocupados.
Reação negativa dos funcionários
Os termos renegociados surgem após a OpenAI ter enfrentado uma onda de críticas internas e externas à empresa. Altman já tinha reconhecido que a imagem de aceitar o acordo com o Pentágono horas depois do governo Trump ter classificado a Anthropic, sua rival, como um “risco na cadeia de abastecimento” por recusar um contrato sem salvaguardas explícitas de IA, “não parecia muito bem.” Isto era especialmente verdadeiro, uma vez que Altman tinha anteriormente declarado publicamente que apoiava as linhas vermelhas da Anthropic em relação à vigilância em massa e armas autónomas.
A Anthropic tinha procurado duas limitações rígidas nas negociações com o Pentágono: uma proibição do uso da sua IA para vigilância em massa de cidadãos americanos, e uma proibição de incorporar a sua tecnologia em sistemas de armas autónomas — definidos como aqueles capazes de decidir atacar alvos sem supervisão humana direta.
Críticos, incluindo Jonathan Iwry, investigador do Accountable AI Lab na Wharton School da Universidade da Pensilvânia, acusaram a OpenAI de prejudicar a Anthropic num momento crítico.
“O que é particularmente decepcionante é que o resto da indústria de IA não apoiou a Anthropic,” disse Iwry à Fortune. “Se essas empresas fossem sérias quanto ao compromisso com uma IA segura e responsável (sobre a qual construíram parte das suas reputações), poderiam ter unido forças e resistido ao Pentágono em nome do público. Em vez disso, deixaram a administração jogar umas contra as outras como concorrentes de mercado.”
Muitos funcionários da OpenAI assinaram uma carta aberta apoiando a Anthropic após o impasse. Os consumidores também demonstraram apoio enviando o Claude, assistente de IA da Anthropic, ao topo das classificações da App Store da Apple pela primeira vez, sugerindo que os utilizadores estavam a mudar em protesto. Graffiti de giz criticando a decisão da OpenAI também apareceu na calçada em frente às suas instalações em São Francisco.
Alguns investigadores da OpenAI chegaram a falar publicamente. Aidan McLaughlin, cientista de investigação na empresa, publicou na X que pessoalmente não achava “que este acordo valesse a pena,” numa publicação que recebeu quase 500.000 visualizações.
Junte-se a nós na Fortune Workplace Innovation Summit 19–20 de maio de 2026, em Atlanta. A próxima era de inovação no local de trabalho já chegou — e o manual antigo está a ser reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo irão reunir-se para explorar como a IA, a humanidade e a estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se já.