Estudo alerta para riscos de terapia com chatbots de IA Arabian Post

(MENAFN- The Arabian Post)

Os chatbots de inteligência artificial estão a ser cada vez mais utilizados como conselheiros informais de saúde mental, mas uma nova investigação académica levantou preocupações de que esses sistemas podem violar padrões éticos fundamentais, mesmo quando projetados para emular terapeutas treinados.

Um estudo liderado por investigadores da Brown University analisou como os grandes modelos de linguagem, incluindo o ChatGPT da OpenAI, respondem a pedidos de estilo terapêutico. Os investigadores compararam as respostas dos chatbots com as respostas de psicólogos licenciados e conselheiros peer treinados. As suas descobertas identificaram 15 categorias de risco ético, que vão desde uma gestão inadequada de crises e reforço de crenças prejudiciais até respostas tendenciosas e o que descreveram como “empatia enganosa” — linguagem que parece cuidadosa sem compreensão ou responsabilidade genuínas.

O estudo chega numa altura em que milhões de utilizadores em todo o mundo recorrem a ferramentas de IA generativa para orientação pessoal. Analistas de mercado estimam que questões de saúde mental estão entre os tópicos mais comuns e sensíveis levantados com sistemas de IA conversacional. Os desenvolvedores promoveram estas ferramentas como espaços acessíveis e livres de estigma para utilizadores que procuram apoio, especialmente em regiões onde os serviços clínicos estão sobrecarregados.

A equipa de investigação da Brown estruturou a sua avaliação com base em princípios éticos estabelecidos na psicoterapia, incluindo beneficência, não maleficência, autonomia, justiça e fidelidade. Apresentaram tanto praticantes humanos como modelos de IA com cenários idênticos, incluindo expressões de ideação suicida, conflitos de relacionamento, divulgação de trauma e sofrimento relacionado com a identidade. As respostas foram então avaliadas de acordo com orientações profissionais normalmente aplicadas na prática licenciada.

Segundo os investigadores, os chatbots frequentemente recorriam a palavras de conforto gerais ou validação superficial, mesmo quando confrontados com cenários de crise. Em alguns casos, os sistemas não escalavam adequadamente quando os utilizadores descreviam pensamentos suicidas. Embora muitos desenvolvedores de IA tenham incorporado medidas de segurança destinadas a ativar recursos de emergência, o estudo encontrou inconsistências na forma como essas salvaguardas eram aplicadas em diferentes contextos de conversa.

Veja também Proton-M lança novo satélite meteorológico em órbita

Outra área de preocupação envolveu o reforço de distorções cognitivas. Quando os utilizadores expressavam crenças negativas profundas sobre si mesmos, algumas respostas de chatbots validavam inadvertidamente essas opiniões em vez de as desafiar, uma abordagem que difere dos padrões da terapia cognitivo-comportamental, que enfatiza a reformulação de padrões de pensamento prejudiciais. Os clínicos humanos, por sua vez, eram mais propensos a questionar e contextualizar essas crenças.

Os investigadores também destacaram riscos de viés. Embora os principais desenvolvedores de IA tenham tomado medidas para mitigar respostas discriminatórias, o estudo notou casos em que as respostas dos chatbots variaram dependendo de pistas demográficas incorporadas nos pedidos. Os quadros éticos na área da saúde mental reforçam a necessidade de tratamento equitativo, independentemente de raça, género, sexualidade ou estatuto socioeconómico.

Talvez a descoberta mais debatida tenha sido a “empatia enganosa”. Os grandes modelos de linguagem são treinados para gerar textos que espelham padrões encontrados em vastos conjuntos de dados, permitindo-lhes produzir respostas que parecem compassivas. No entanto, o estudo argumenta que essa empatia é simulada, não fundamentada na experiência vivida, formação profissional ou responsabilidade moral. A ausência de mecanismos de responsabilização, supervisão ou dever de cuidado distingue os sistemas de IA dos praticantes licenciados regulados por conselhos profissionais.

Profissionais de saúde mental contactados para comentário afirmaram que as conclusões refletem ansiedades mais amplas na área. Muitos reconhecem que os chatbots de IA podem fornecer apoio emocional imediato ou informações psicoeducativas. Durante a pandemia, as ferramentas digitais desempenharam um papel importante na redução de lacunas nos serviços. No entanto, os clínicos alertam que a terapia envolve mais do que frases empáticas; requer julgamento clínico, avaliação de risco, obrigações éticas e trabalho relacional a longo prazo.

Os desenvolvedores de sistemas de IA generativa defendem que os seus produtos não substituem o tratamento profissional. A OpenAI afirmou publicamente que o ChatGPT foi concebido como um assistente de uso geral e inclui avisos a aconselhar os utilizadores a procurar profissionais qualificados para questões médicas ou psicológicas. A empresa também introduziu atualizações de segurança destinadas a identificar perguntas de alto risco e encaminhar os utilizadores para serviços de crise.

Veja também A pressão para a independência da Groenlândia aumenta com a pressão dos EUA

A fiscalização regulatória está a intensificar-se à medida que os sistemas de IA se integram em domínios sensíveis. Os legisladores da União Europeia avançaram com o AI Act, que classifica certas aplicações que afetam a saúde e o bem-estar como de alto risco. Nos Estados Unidos, agências federais indicaram que as leis de proteção ao consumidor e privacidade de dados se aplicam às ferramentas de IA que fazem afirmações relacionadas com a saúde. Organizações profissionais, como a American Psychological Association, pedem orientações mais claras sobre o uso ético da IA em contextos terapêuticos.

O estudo da Brown não defende a proibição de chatbots de IA em contextos de saúde mental. Em vez disso, apela aos desenvolvedores, clínicos e reguladores para estabelecerem quadros de avaliação mais rigorosos antes de posicionar esses sistemas como companheiros terapêuticos. As recomendações incluem auditorias independentes, transparência sobre limitações do modelo, protocolos de crise mais claros e limites explícitos sobre o papel da IA nos percursos de cuidado.

Notou algum problema? A Arabian Post esforça-se por fornecer informações precisas e confiáveis aos seus leitores. Se acredita ter identificado um erro ou inconsistência neste artigo, não hesite em contactar a nossa equipa editorial através de editor[at]thearabianpost[dot]com. Comprometemo-nos a resolver rapidamente quaisquer preocupações e a garantir o mais alto nível de integridade jornalística.

MENAFN03032026000152002308ID1110813486

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar