Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Arranque dos futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
Estudo alerta para riscos de terapia com chatbots de IA Arabian Post
(MENAFN- The Arabian Post)
Os chatbots de inteligência artificial estão a ser cada vez mais utilizados como conselheiros informais de saúde mental, mas uma nova investigação académica levantou preocupações de que esses sistemas podem violar padrões éticos fundamentais, mesmo quando projetados para emular terapeutas treinados.
Um estudo liderado por investigadores da Brown University analisou como os grandes modelos de linguagem, incluindo o ChatGPT da OpenAI, respondem a pedidos de estilo terapêutico. Os investigadores compararam as respostas dos chatbots com as respostas de psicólogos licenciados e conselheiros peer treinados. As suas descobertas identificaram 15 categorias de risco ético, que vão desde uma gestão inadequada de crises e reforço de crenças prejudiciais até respostas tendenciosas e o que descreveram como “empatia enganosa” — linguagem que parece cuidadosa sem compreensão ou responsabilidade genuínas.
O estudo chega numa altura em que milhões de utilizadores em todo o mundo recorrem a ferramentas de IA generativa para orientação pessoal. Analistas de mercado estimam que questões de saúde mental estão entre os tópicos mais comuns e sensíveis levantados com sistemas de IA conversacional. Os desenvolvedores promoveram estas ferramentas como espaços acessíveis e livres de estigma para utilizadores que procuram apoio, especialmente em regiões onde os serviços clínicos estão sobrecarregados.
A equipa de investigação da Brown estruturou a sua avaliação com base em princípios éticos estabelecidos na psicoterapia, incluindo beneficência, não maleficência, autonomia, justiça e fidelidade. Apresentaram tanto praticantes humanos como modelos de IA com cenários idênticos, incluindo expressões de ideação suicida, conflitos de relacionamento, divulgação de trauma e sofrimento relacionado com a identidade. As respostas foram então avaliadas de acordo com orientações profissionais normalmente aplicadas na prática licenciada.
Segundo os investigadores, os chatbots frequentemente recorriam a palavras de conforto gerais ou validação superficial, mesmo quando confrontados com cenários de crise. Em alguns casos, os sistemas não escalavam adequadamente quando os utilizadores descreviam pensamentos suicidas. Embora muitos desenvolvedores de IA tenham incorporado medidas de segurança destinadas a ativar recursos de emergência, o estudo encontrou inconsistências na forma como essas salvaguardas eram aplicadas em diferentes contextos de conversa.
Veja também Proton-M lança novo satélite meteorológico em órbita
Outra área de preocupação envolveu o reforço de distorções cognitivas. Quando os utilizadores expressavam crenças negativas profundas sobre si mesmos, algumas respostas de chatbots validavam inadvertidamente essas opiniões em vez de as desafiar, uma abordagem que difere dos padrões da terapia cognitivo-comportamental, que enfatiza a reformulação de padrões de pensamento prejudiciais. Os clínicos humanos, por sua vez, eram mais propensos a questionar e contextualizar essas crenças.
Os investigadores também destacaram riscos de viés. Embora os principais desenvolvedores de IA tenham tomado medidas para mitigar respostas discriminatórias, o estudo notou casos em que as respostas dos chatbots variaram dependendo de pistas demográficas incorporadas nos pedidos. Os quadros éticos na área da saúde mental reforçam a necessidade de tratamento equitativo, independentemente de raça, género, sexualidade ou estatuto socioeconómico.
Talvez a descoberta mais debatida tenha sido a “empatia enganosa”. Os grandes modelos de linguagem são treinados para gerar textos que espelham padrões encontrados em vastos conjuntos de dados, permitindo-lhes produzir respostas que parecem compassivas. No entanto, o estudo argumenta que essa empatia é simulada, não fundamentada na experiência vivida, formação profissional ou responsabilidade moral. A ausência de mecanismos de responsabilização, supervisão ou dever de cuidado distingue os sistemas de IA dos praticantes licenciados regulados por conselhos profissionais.
Profissionais de saúde mental contactados para comentário afirmaram que as conclusões refletem ansiedades mais amplas na área. Muitos reconhecem que os chatbots de IA podem fornecer apoio emocional imediato ou informações psicoeducativas. Durante a pandemia, as ferramentas digitais desempenharam um papel importante na redução de lacunas nos serviços. No entanto, os clínicos alertam que a terapia envolve mais do que frases empáticas; requer julgamento clínico, avaliação de risco, obrigações éticas e trabalho relacional a longo prazo.
Os desenvolvedores de sistemas de IA generativa defendem que os seus produtos não substituem o tratamento profissional. A OpenAI afirmou publicamente que o ChatGPT foi concebido como um assistente de uso geral e inclui avisos a aconselhar os utilizadores a procurar profissionais qualificados para questões médicas ou psicológicas. A empresa também introduziu atualizações de segurança destinadas a identificar perguntas de alto risco e encaminhar os utilizadores para serviços de crise.
Veja também A pressão para a independência da Groenlândia aumenta com a pressão dos EUA
A fiscalização regulatória está a intensificar-se à medida que os sistemas de IA se integram em domínios sensíveis. Os legisladores da União Europeia avançaram com o AI Act, que classifica certas aplicações que afetam a saúde e o bem-estar como de alto risco. Nos Estados Unidos, agências federais indicaram que as leis de proteção ao consumidor e privacidade de dados se aplicam às ferramentas de IA que fazem afirmações relacionadas com a saúde. Organizações profissionais, como a American Psychological Association, pedem orientações mais claras sobre o uso ético da IA em contextos terapêuticos.
O estudo da Brown não defende a proibição de chatbots de IA em contextos de saúde mental. Em vez disso, apela aos desenvolvedores, clínicos e reguladores para estabelecerem quadros de avaliação mais rigorosos antes de posicionar esses sistemas como companheiros terapêuticos. As recomendações incluem auditorias independentes, transparência sobre limitações do modelo, protocolos de crise mais claros e limites explícitos sobre o papel da IA nos percursos de cuidado.
Notou algum problema? A Arabian Post esforça-se por fornecer informações precisas e confiáveis aos seus leitores. Se acredita ter identificado um erro ou inconsistência neste artigo, não hesite em contactar a nossa equipa editorial através de editor[at]thearabianpost[dot]com. Comprometemo-nos a resolver rapidamente quaisquer preocupações e a garantir o mais alto nível de integridade jornalística.
MENAFN03032026000152002308ID1110813486