Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Estudo revela que a IA é o maior medo de cibersegurança das organizações
Mais de metade das organizações classificam agora a inteligência artificial generativa como a sua maior ameaça de segurança, ultrapassando as credenciais roubadas. O aumento de ataques impulsionados por IA — de deepfakes a phishing hiperpersonalizado — está a desestabilizar a cibersegurança, com a velocidade e a escala a sobrepor-se às defesas tradicionais.
De acordo com The State of Passwordless Identity Assurance, um estudo da HYPR, a inteligência artificial generativa e a IA agentiva estão a permitir formas totalmente novas de ataques, incluindo deepfakes e personificação de colaboradores. O estudo revelou que quase dois terços das organizações inquiridas já tinham sido alvo de emails de phishing personalizados — mensagens geradas por IA concebidas para imitar executivos — destacando como estas ameaças estão a evoluir rapidamente.
O phishing foi o tipo de ciberataque mais comum com que as organizações se depararam nos últimos 12 meses, seguido de malware e ransomware. Estes resultados estão alinhados com um estudo da Cofense, que concluiu que a taxa de ataques de phishing está a acelerar, com filtros de spam a assinalarem um email de phishing a cada 19 segundos em 2025, acima de um a cada 42 segundos no ano anterior.
A Velocidade é Essencial
Quase 40% dos inquiridos relataram ter experienciado algum tipo de incidente de segurança relacionado com IA generativa nos últimos 12 meses. As preocupações estão a aumentar, uma vez que 43% dos inquiridos identificaram ataques impulsionados por IA como a mudança mais significativa na cibersegurança no último ano.
Ainda assim, demasiadas organizações reagem apenas depois de o dano estar feito. Três em cada cinco inquiridos disseram ter sofrido um custo de retrospectiva (hindsight tax), aumentando os seus orçamentos de cibersegurança apenas depois de a violação já ter ocorrido.
Na era da IA, esta abordagem já não é suficiente. A IA aumentou a escala, a velocidade e a eficácia do phishing e de outros ciberataques. Embora a maioria dos ataques baseados na identidade seja detetada ao fim de horas, a automação impulsionada por IA permite que os dados sejam roubados antes de ocorrer qualquer intervenção humana.
Ameaças da IA Agentiva
Outro risco emergente, o commerce agentivo, também está a fazer manchetes. De acordo com a HYPR, os agentes automatizados estão em linha para vazar mais palavras-passe do que as pessoas este ano, no meio de relatos crescentes de agentes a agir fora do controlo.
A empresa de segurança em IA Irregular realizou recentemente um teste no qual foram instruídos agentes de IA a criar publicações no LinkedIn usando material da base de dados interna de uma empresa. Os agentes contornaram protocolos anti-hacking e acabaram por publicar informação sensível de palavras-passe. Num outro caso, agentes de IA contornaram software antivírus para descarregar ficheiros contendo malware.
0
0
Etiquetas: AIAI AgentsCibersegurançaDeepfakesInteligência Artificial GenerativaPhishing