Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Lo Que La Demanda Podría Significar Para El Futuro De La IA Ponible
En Resumen
En marzo de 2026, Meta enfrentó una demanda colectiva en Estados Unidos y escrutinio internacional después de que se revelara que contratistas humanos en Kenia habían revisado grabaciones íntimas de sus gafas inteligentes impulsadas por IA Ray-Ban, lo que generó serias preocupaciones sobre privacidad y ética.
A principios de marzo de 2026, salió a la luz información impactante sobre las gafas inteligentes impulsadas por IA de Meta, un producto co-producido con EssilorLuxottica bajo la marca Ray-Ban. Lo que se promocionaba como un producto innovador con soporte de IA sin manos y funciones de privacidad es motivo de preocupación continua.
Al informar sobre el asunto, se divulgó que grabaciones de video íntimas y personales de personas que usaban las gafas estaban siendo accedidas por contratistas en Kenia para entrenar la IA en Meta. Esto provocó indignación entre la población y una demanda colectiva en Estados Unidos.
Fuente: X
Las gafas inteligentes vendidas por Meta permiten al usuario grabar videos, tomar tomas en primera persona, traducir idiomas de manera dinámica y comunicarse con asistentes de IA. El producto se volvió rápidamente popular, y se reporta que en 2025 se vendieron siete millones de unidades. Meta enfatizó la privacidad y el control del usuario en sus estrategias promocionales, pero la realidad del procesamiento en la nube y la revisión humana no es tan transparente.
Revisión Humana de Material Privado
Medios suecos han descubierto que grabaciones de las gafas, que en ocasiones contenían desnudos, acciones sexuales o datos financieros personales, estaban siendo dirigidas a contratistas en Nairobi, Kenia. Estos videos eran vistos por trabajadores, quienes los etiquetaban y anotaban, ayudando en el entrenamiento de la IA. El hecho de que contenidos altamente personales fueran expuestos a áreas sin consentimiento del usuario generó serias cuestiones éticas y de privacidad.
Se alega que muchos usuarios nunca se dieron cuenta de que podían revisar las grabaciones con ojos humanos. La carga automática de videos para entrenar la IA también se activó por defecto, y las divulgaciones en los documentos de uso a largo plazo no fueron suficientes para informar a los usuarios sobre los riesgos de privacidad. Los críticos consideran que esto representa un fallo en la protección adecuada de la privacidad.
Una demanda colectiva federal fue presentada contra Meta el 5 de marzo de 2026 en Estados Unidos, alegando que la compañía mintió a los consumidores respecto al uso de las grabaciones de sus gafas inteligentes con IA. Los demandantes afirman que promesas engañosas como privacidad diseñada y controlada por el usuario son, en realidad, engañosas, considerando que las grabaciones pueden ser dirigidas a revisores humanos en el extranjero. El caso busca responsabilizar a Meta por sus prácticas de privacidad y su información engañosa.
Supervisión Regulatoria
Los reguladores también han prestado atención a esta controversia. En Suecia, el gobierno examinó la gestión de las grabaciones, y de manera similar, la Oficina del Comisionado de Información en el Reino Unido ha iniciado una investigación. En Kenia, grupos de defensa locales solicitaron la atención del Comisionado de Protección de Datos para determinar si el acceso de los contratistas a grabaciones sensibles violaba las leyes locales. Estas preguntas indican la naturaleza internacional de los dispositivos de IA que analizan material personal a nivel global.
El escenario resalta un problema mayor en la industria. La mayoría de los sistemas de IA utilizan anotaciones humanas para mejorar la precisión. Sin embargo, la magnitud y la naturaleza del material revisado en este caso, como desnudos, baños y datos personales, han aumentado los temores. Aunque Meta afirma que el entrenamiento de IA es una práctica estándar y que se toman medidas para difuminar o anonimizar datos sensibles, los críticos consideran que estas medidas no son suficientes.
Defensa de Meta
Meta ha justificado sus acciones diciendo que la revisión humana se realiza para mejorar el rendimiento de la IA y que el contenido no está en riesgo. La compañía menciona que el compartir de los medios está controlado por los usuarios y que la difuminación de rostros está disponible cuando es posible. Sin embargo, las demandas y el escrutinio social demuestran que existe una desconexión entre las promesas de marketing y las acciones reales.
Los críticos de los dispositivos de IA advierten que los wearables de captura de video en primera persona nunca han sido tan peligrosos como hoy. Las gafas con IA pueden grabar entornos muy íntimos en áreas personales, a diferencia de los smartphones o altavoces inteligentes. El caso plantea preguntas subyacentes sobre el consentimiento, la ética de externalizar la revisión humana y los límites de la tecnología de IA en la vida personal.
El caso contra Meta, que es una demanda colectiva, está en curso, las investigaciones regulatorias continúan y la cuestión de la privacidad de la IA portátil está ganando impulso en la opinión pública. El caso puede establecer precedentes importantes en el tratamiento de la información personal por parte de dispositivos de IA, el consentimiento del usuario y la responsabilidad de las empresas tecnológicas para garantizar la privacidad. Hoy, Meta se encuentra en una cuerda floja entre innovación y confianza del usuario frente a la legalidad y la responsabilidad legal.