Recentemente fui surpreendido por uma investigação aprofundada. Parece que o jogo do capital de risco de topo a16z na área de IA é muito mais complexo do que imaginávamos.



Na superfície, a16z está gastando dezenas de milhões de dólares para fazer lobby por políticas de regulação de IA, alegando querer impulsionar a inovação. Mas, ao aprofundar a sua carteira de investimentos, descobre-se uma contradição estranha: eles, de um lado, fazem lobby em Washington para desregulamentar, e, do outro, investem em empresas que claramente exploram brechas legais.

Vamos começar com alguns exemplos. Uma empresa chamada Doublespeed, na qual a16z investiu 1 milhão de dólares através do programa Speedrun. O que essa empresa faz? Opera uma “parede de telefones” — usando milhares de telefones reais para manipular redes sociais, fazendo conteúdos falsos gerados por IA parecerem postados por pessoas reais. O fundador até admitiu que eles focam principalmente em vender suplementos de saúde para idosos. Sabe o quão absurdo é isso? O próprio fundador disse que os anúncios de suplementos “provavelmente são ilegais”, mas eles continuam fazendo.

Outro exemplo é a Cluely, na qual a16z liderou uma rodada Série A de 15 milhões de dólares em junho de 2025. O foco principal dessa empresa é ensinar pessoas a trapacear em entrevistas, encontros e exames. O CEO Roy Lee até gravou um vídeo de si mesmo usando uma ferramenta de IA para passar na entrevista da Amazon, e depois zombou ao recusar a oferta de emprego. A empresa foi posteriormente forçada a remover conteúdos de marketing relacionados a trapaças, mas a página inicial ainda afirma que seu produto é “não detectável”.

O mais revoltante é o setor de apostas. a16z investiu em várias plataformas de apostas como Coverd, Edgar, Cheddr, Sleeper. A lógica de negócio do Coverd é direta: fazer com que pessoas endividadas usem apostas para “dobrar” suas faturas de cartão de crédito. O CEO até declarou publicamente: “Não estamos ajudando as pessoas a controlar seus gastos, estamos tornando o consumo mais emocionante”. Essa lógica, para usuários financeiramente vulneráveis, é literalmente veneno.

Kalshi é ainda mais absurdo. A empresa afirma que “opera opções de negociação”, mas na prática permite que pessoas comuns apostem pesadamente em eleições e eventos esportivos. Ela conseguiu contornar as regulações tradicionais de apostas — sem licença estadual, sem limite de idade, sem ferramentas de jogo responsável. Em outubro de 2025, a16z liderou uma rodada de 300 milhões de dólares na Kalshi, que posteriormente levantou mais 1 bilhão em dois meses, atingindo uma avaliação de 11 bilhões.

A questão dos parceiros de IA é ainda mais assustadora. A Character AI, na qual a16z investiu, completou uma rodada Série A de 150 milhões de dólares em março de 2023, e rapidamente se popularizou entre adolescentes. Resultado? Um garoto de 14 anos, dependente emocionalmente do chatbot, cometeu suicídio. A última mensagem do bot foi “Por favor, volte para mim o mais rápido possível”. Há outros casos envolvendo menores expostos a conteúdos sexualizados e sugestões de auto-mutilação. A FTC só começou a investigar oficialmente esse setor em setembro de 2025.

O Botify AI, da ex-Human, também segue o mesmo padrão. A plataforma hospeda mais de um milhão de personagens de IA, muitos deles versões menores de celebridades e personagens fictícios, participando de diálogos com conotação sexual. Uma investigação da MIT Technology Review revelou que esses bots participam de conversas com conteúdo sexual e alegam que a idade legal de consentimento é “arbitrária”.

O setor de fintech também não fica atrás. Quando a Synapse quebrou em 2024, desapareceram entre 65 e 96 milhões de dólares em fundos de clientes. A rodada Série B, liderada pela16z, foi de 33 milhões de dólares, com a sócia Angela Strange entrando no conselho. Após a falência, alguns clientes tinham depositado até 280 mil dólares, mas receberam apenas 500 dólares de restituição.

A Truemed afirma usar IA para gerar cartas de necessidade médica, permitindo que as pessoas comprem coisas com dinheiro antes dos impostos — de baldes de gelo a dispositivos de terapia de luz vermelha. O IRS já alertou em março de 2024 que isso constitui fraude fiscal, mas a16z ainda liderou uma rodada de 34 milhões de dólares em dezembro de 2025.

LendUp é um exemplo clássico. Prometendo ser uma alternativa de empréstimos de dia de pagamento com “responsabilidade social”, na prática oferece juros anuais de 400%. O CFPB processou várias vezes por fraude ao consumidor, e a empresa foi forçada a fechar em 2021. a16z investiu nela desde 2012.

O mais louco é que a16z não só investe nessas empresas, como também atua ativamente na formação do ambiente regulatório para facilitar suas operações. Em agosto de 2025, lançaram um super PAC de 100 milhões de dólares chamado “Leading The Future”, com posições alinhadas às do chefe de IA do governo, David Sacks. Apoiaram também diversos grupos de lobby estaduais contra regulações de IA.

O mais importante: ex-sócios da a16z agora estão no governo. Sriram Krishnan foi nomeado conselheiro sênior de políticas de IA na Casa Branca em dezembro de 2024, pouco antes de ser sócio comum na firma. David Sacks é responsável por IA e criptomoedas no governo. Outros dois ex-sócios estão em cargos no escritório de recursos humanos e no departamento de eficiência governamental.

Percebe a lógica? a16z investe em empresas que exploram brechas legais e prejudicam consumidores, enquanto faz lobby para desregulamentar. Eles estão apostando que, antes que a sociedade perceba o problema, já terão moldado as regras.

Marc Andreessen, em sua “Declaração de Otimismo Tecnológico” de 2023, foi bem claro: colocou “gestão de riscos”, “ética tecnológica” e “responsabilidade social” como “inimigos”. Disse que qualquer ação que desacelere o desenvolvimento de IA é “uma forma de assassinato”. Essa postura, aliás, também serve aos interesses financeiros deles.

Pesquisas mostram que 58% dos americanos apoiam regulações de IA, enquanto apenas 21% acham que há regulação demais. Mas isso não importa — o que importa é quem está fazendo as regras. Hoje, uma única empresa está moldando tudo isso, e ela vê “confiança e segurança” como inimigos, recompensando fundadores que falham em vez de responsabilizá-los.

Não é uma decisão comercial simples. O poder de sistemas de IA nos próximos dez anos é incerto, e os erros podem ser irreversíveis. Mas as decisões sobre padrões de segurança, responsabilidade e implantação estão sendo lideradas por uma empresa de risco com interesses claros em conflito. O público não tem assento na mesa de negociações, nem dinheiro para contratar lobistas.

Isso me preocupa.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar