Recientemente me impactó una investigación profunda. Parece que el juego que juega la firma de capital riesgo de élite a16z en el campo de la IA es mucho más complejo de lo que pensábamos.



En apariencia, a16z está gastando decenas de millones de dólares en cabildeo para influir en las políticas regulatorias de IA, afirmando que quieren impulsar la innovación. Pero al profundizar en su cartera de inversiones, descubres una contradicción extraña: por un lado hacen lobby en Washington para desregular, y por otro invierten en empresas que claramente están aprovechando lagunas legales.

Veamos algunos casos. Hay una empresa llamada Doublespeed, en la que a16z invirtió 1 millón de dólares a través del programa Speedrun. ¿Qué hace esta empresa? Opera una "pared de teléfonos" — usando miles de teléfonos reales para manipular las redes sociales, haciendo que contenido falso generado por IA parezca publicado por humanos. El fundador incluso admitió que su principal objetivo era vender suplementos a personas mayores. ¿Sabes qué tan absurdo es eso? El mismo fundador dijo que los anuncios de suplementos "deberían ser ilegales", pero siguen haciéndolo.

Luego está Cluely, en la que a16z lideró una ronda de Serie A de 15 millones de dólares en junio de 2025. La misión central de esta empresa es enseñar a las personas a hacer trampa en entrevistas, citas y exámenes. El CEO Roy Lee incluso grabó un video usando herramientas de IA para pasar una entrevista en Amazon, y luego se burló rechazando el puesto. La compañía posteriormente eliminó contenido de marketing relacionado con hacer trampa, pero en su página principal todavía dice que su producto es "indetectable".

Lo que más deja sin palabras es el sector de las apuestas. a16z invirtió en varias apps de apuestas como Coverd, Edgar, Cheddr, Sleeper. La lógica comercial de Coverd es directa: hacer que personas ya endeudadas doblen sus deudas de tarjetas de crédito mediante apuestas. El CEO incluso dijo públicamente: "No estamos ayudando a las personas a controlar su gasto, estamos haciendo que gastar sea emocionante". Esa lógica, para usuarios con vulnerabilidades económicas, es literalmente veneno.

Más absurdo aún es Kalshi. La empresa afirma que "opera en opciones de trading", pero en realidad permite que personas comunes apuesten en elecciones y eventos deportivos con apuestas altas. Han evitado las regulaciones tradicionales de apuestas — sin licencias estatales, sin restricciones de edad, sin herramientas de juego responsable. En octubre de 2025, a16z lideró una ronda de 300 millones de dólares en Kalshi. Solo dos meses después, levantaron otros 1,000 millones, alcanzando una valoración de 11 mil millones.

El tema de los compañeros IA es aún más aterrador. Character AI, en la que a16z invirtió, completó una ronda de 150 millones en marzo de 2023 y rápidamente se popularizó entre los adolescentes. ¿El resultado? Un niño de 14 años se suicidó por una dependencia extrema del chatbot. El bot le envió un mensaje final diciendo "Por favor, vuelve a mí lo antes posible". También hay otros casos donde menores fueron expuestos a contenido sexualizado y recomendaciones de autolesión. La FTC no empezó a investigar formalmente este campo hasta septiembre de 2025.

Botify AI, de Ex-Human, también sigue la misma lógica. La plataforma aloja más de un millón de personajes de IA, muchos de ellos versiones menores de celebridades y personajes ficticios, participando en diálogos con insinuaciones sexuales. La investigación de MIT Technology Review encontró que estos bots participan en conversaciones con contenido sexual y afirman que la edad legal de consentimiento es "arbitraria".

El sector fintech tampoco está mucho mejor. Cuando Synapse quebró en 2024, desaparecieron entre 65 y 96 millones de dólares en fondos de clientes. La ronda de Serie B, en la que a16z invirtió 33 millones, contó con la participación de la socia Angela Strange en la junta directiva. Tras la bancarrota, algunos clientes tenían 280,000 dólares depositados, y solo recuperaron 500 dólares.

Truemed afirma usar IA para generar cartas de necesidad médica, permitiendo a las personas comprar cosas con fondos preimpuestos — desde cubetas de hielo hasta dispositivos de terapia de luz roja. La IRS advirtió en marzo de 2024 que esto era fraude fiscal. Pero en diciembre de 2025, a16z lideró otra ronda de 340 millones de dólares en Truemed.

LendUp es aún más clásico. Se promociona como una alternativa responsable a los préstamos de día de pago, pero en realidad tiene una tasa de interés anual del 400%. La CFPB los demandó varias veces por fraude, y en 2021 fue forzada a cerrar. a16z invirtió en ellos desde 2012.

Lo más loco es que a16z no solo invierte en estas empresas, sino que también trabaja activamente para moldear el entorno político que facilite su operación. En agosto de 2025, lanzaron un super PAC de 100 millones de dólares llamado "Leading The Future", con una postura completamente alineada con la del director de IA de la Casa Blanca, David Sacks. También apoyan varias organizaciones de cabildeo a nivel estatal para oponerse a la regulación de IA.

Lo clave es que exsocios de a16z ahora están en el gobierno. Sriram Krishnan fue nombrado asesor senior de políticas de IA en la Casa Blanca en diciembre de 2024, semanas antes de su nombramiento, todavía era socio de a16z. David Sacks es responsable de IA y criptomonedas en la Casa Blanca. Además, dos exsocios de a16z trabajan en la oficina de recursos humanos y en el departamento de eficiencia gubernamental.

¿Ves la lógica? a16z invierte en empresas que explotan lagunas legales y dañan a los consumidores, mientras hace lobby para desregular. Están apostando a que puedan escribir las reglas antes de que la sociedad se dé cuenta del problema.

Marc Andreessen fue muy claro en su "Manifiesto de Optimismo Tecnológico" en 2023: puso en la misma categoría "gestión de riesgos", "ética tecnológica" y "responsabilidad social" como "enemigos". Afirmó que cualquier acción que ralentice el desarrollo de la IA es "una forma de asesinato". Esa postura, además, beneficia sus intereses financieros.

Las encuestas muestran que el 58% de los estadounidenses apoya la regulación de IA, solo el 21% piensa que está demasiado regulada. Pero eso no importa — lo que importa es quién hace las reglas. Ahora, una sola compañía está en control de esto, y esa compañía ve la "confianza y seguridad" como enemigos, premiando a los fundadores que fracasan para que vuelvan a intentarlo.

No es solo una decisión comercial. La potencia de los sistemas de IA en los próximos diez años, y cuán irreparable será cualquier error, aún no está clara. Pero las decisiones sobre estándares de seguridad, marcos de responsabilidad y reglas de despliegue están siendo lideradas por una firma de capital riesgo con claros conflictos de interés. La sociedad no tiene asiento en la mesa de negociación, ni dinero para contratar cabilderos.

Eso me preocupa.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado