Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Promociones
Centro de actividades
Únete a actividades y gana recompensas
Referido
20 USDT
Invita amigos y gana por tus referidos
Programa de afiliados
Gana recompensas de comisión exclusivas
Gate Booster
Aumenta tu influencia y gana airdrops
Anuncio
Novedades de plataforma en tiempo real
Blog de Gate
Artículos del sector de las criptomonedas
AI
Gate AI
Tu compañero de IA conversacional para todo
Gate AI Bot
Usa Gate AI directamente en tu aplicación social
GateClaw
Gate Blue Lobster, listo para usar
Gate for AI Agent
Infraestructura de IA, Gate MCP, Skills y CLI
Gate Skills Hub
+10 000 habilidades
De la oficina al trading, una biblioteca de habilidades todo en uno para sacar el máximo partido a la IA
GateRouter
Elige inteligentemente entre más de 30 modelos de IA, con 0% de costos adicionales
Ayer salió un reportaje en The New Yorker que no puedo dejar de pensar. Básicamente, investigadores de allí entrevistaron a más de 100 personas involucradas en OpenAI y lograron acceder a documentos internos que nunca habían salido a la luz pública. ¿Qué salió de eso? Una historia mucho más complicada que ese drama de 2023.
Todo empezó con un documento de 70 páginas que Ilya Sutskever, el científico jefe de OpenAI, compiló en 2023. Reunió mensajes de Slack, comunicaciones con Recursos Humanos, actas de reuniones internas... todo para responder a una pregunta: ¿Se puede confiar en Sam Altman, la persona que posiblemente controla la tecnología más peligrosa de la historia? ¿Suena confiable? La conclusión en la primera página: "Sam demuestra un patrón de comportamiento consistente en mentir."
Lo que me llamó la atención fue un ejemplo muy específico. En diciembre de 2022, durante una reunión del consejo, Altman aseguró que varias funcionalidades del GPT-4 ya habían pasado por revisión de seguridad. Cuando pidieron ver los documentos, descubrieron que dos de las funcionalidades más controvertidas nunca pasaron por el panel de seguridad. Así de simple.
Pero hay más. Dario Amodei, que luego fundó Anthropic, dejó más de 200 páginas de notas personales mientras estuvo en OpenAI. Registró cómo la empresa retrocedió paso a paso bajo presión comercial. Una cosa que le preocupó especialmente: cuando Microsoft invirtió en 2019, había una cláusula que decía que si otro competidor encontraba un camino más seguro hacia la AGI, OpenAI tendría que dejar de competir y ayudar. Pero Microsoft consiguió derecho de veto sobre eso. Básicamente, esa garantía de seguridad se convirtió en papel en blanco.
Hay un detalle que es algo aterrador. A mediados de 2023, Altman anunció públicamente que OpenAI asignaría el 20% de su capacidad de computación a un "equipo de superalineamiento" — potencial de más de mil millones de dólares. Pero cuatro personas que trabajaron allí dicen que la potencia realmente asignada fue del 1% al 2%, aún con hardware más viejo. El equipo fue desmantelado después. Cuando los periodistas pidieron entrevistar a los responsables de la investigación en seguridad existencial, la respuesta del equipo de OpenAI fue: "Eso no es algo que realmente exista."
Lo más reciente: Sarah Friar, CFO de OpenAI, tuvo serias divergencias con Altman sobre una oferta pública inicial (IPO). Ella cree que la empresa no está lista, considerando el riesgo financiero de la promesa de Altman de gastar 600 mil millones en capacidad computacional. Pero aquí está lo extraño: ya no reporta directamente a Altman. Ahora reporta a Fidji Simo, quien tomó licencia médica la semana pasada. Una empresa en proceso de IPO, CEO y CFO en divergencia fundamental, el CFO no reporta al CEO, y el superior del CFO está de licencia. Incluso los ejecutivos de Microsoft ya no aguantan más, diciendo que Altman "distorsionó hechos, rompió promesas."
Un exmiembro del consejo describió a Altman de forma bastante interesante: tiene un deseo extremadamente fuerte de agradar en cada interacción cara a cara, pero al mismo tiempo demuestra una indiferencia casi sociopática respecto a las consecuencias de engañar a los demás. Es una combinación rara — y perfecta para un vendedor.
Aquí está el problema: si Altman fuera CEO de cualquier empresa tecnológica común, sería solo un buen rumor corporativo. Pero OpenAI está desarrollando tecnología que puede reestructurar economías globales, ser usada para crear armas bioquímicas o lanzar ataques cibernéticos. El excientífico jefe y el exresponsable de seguridad lo consideran poco confiable. Los socios lo comparan con SBF. Y aun así, quiere llevar a esta empresa a una IPO con una valoración superior a los 850 mil millones.
Gary Marcus, profesor de IA en Nueva York, hizo una pregunta muy directa después de leer todo: ¿realmente te sientes seguro dejando que Altman decida solo si debe o no liberar un modelo que puede cambiar el destino de la humanidad?
La respuesta de OpenAI fue básicamente cuestionar los motivos de las fuentes, sin negar nada específicamente. Altman no respondió a las acusaciones directas.
Es una historia sobre cómo un grupo de idealistas preocupados por los riesgos de la IA creó una organización sin fines de lucro con una misión clara. Luego, la tecnología avanzó, llegó capital masivo, el capital exigió retorno, y la misión empezó a ceder. El equipo de seguridad fue desmantelado, las personas que cuestionaban fueron expulsadas, la estructura sin fines de lucro se convirtió en una entidad con fines lucrativos, y el consejo que podría cerrar la empresa ahora está lleno de aliados del CEO. Más de cien testigos usaron la misma descripción: "no restringido por la verdad."