Estamos a chegar a um ponto em que não conseguiremos distinguir entre ações humanas e ações de IA.



Por isso, a posição @inference_labs sobre "toda ação comprovável" é tão vital.

Não se trata apenas de segurança; trata-se de identidade.
Se não consegue auditar a lógica ao nível do cálculo, realmente não possui o resultado.

​Qual é a única coisa que nunca deixaria uma IA fazer, a menos que pudesse ver a "prova" da sua lógica primeiro?
Ver original
post-image
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar