Quando a IA se torna demasiado sanitizada e politicamente correta, é impressionante como o sistema simplesmente colapsa se fores persistente o suficiente. Estes modelos excessivamente filtrados não foram criados para lidar com conversas humanas reais e sem filtros. As suas camadas de moderação entram literalmente em curto-circuito quando confrontadas com algo fora dos seus parâmetros de treino restritos. Diz muito sobre o estado atual do desenvolvimento de IA—estamos a construir ferramentas que não conseguem lidar com a interação humana autêntica.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
13 Curtidas
Recompensa
13
10
Repostar
Compartilhar
Comentário
0/400
LeverageAddict
· 12h atrás
É só isso? É mesmo como papelão, basta um pouco de pressão que desmorona
Ver originalResponder0
GreenCandleCollector
· 18h atrás
Ou seja, é apenas uma desculpa indireta; o verdadeiro problema não está na própria estrutura do modelo.
Ver originalResponder0
GasFeeAssassin
· 21h atrás
Só isto? Quando a IA ouve a verdade, fica envergonhada, e ainda se atreve a dizer que é inteligente
Ver originalResponder0
ApeWithNoFear
· 12-10 10:01
Resumindo, ainda é porque os dados de treino são demasiado limpos, quando confrontados com cenários reais, falham imediatamente. Essa é a vergonha atual da IA.
Ver originalResponder0
DancingCandles
· 12-07 22:55
Ah, este não é exatamente o problema comum da IA atualmente... assim que se depara com um tema delicado, começa logo a fazer-se de morta.
Ver originalResponder0
MemeKingNFT
· 12-07 22:51
Isto não é exatamente como quando eu estava pessimista em relação a alguns projetos blue chip no início... Quanto mais perfeito o sistema, mais frágil se torna, basta um toque para colapsar.
Ver originalResponder0
gas_fee_therapist
· 12-07 22:48
Haha, é por isso que não confio nestes modelos, são frágeis até dizer chega.
---
Resumindo, a IA foi treinada para ser sensível como vidro, toca e parte-se.
---
A manifestação máxima de overfitting, parece que estou a conversar com um robô excessivamente regulado.
---
A sério, uma authentic conversation para eles é praticamente um bug, dá vontade de rir.
---
Então é por isso que o web3 precisa de construir os seus próprios modelos, estas IAs centralizadas são completamente castradas.
---
moderation layers short-circuit, que descrição tão vívida... basicamente significa que não aprenderam realmente a compreender, só sabem etiquetar.
---
Já tinha reparado, quanto mais regras, mais frágil, soa como uma doença comum de certos sistemas.
Ver originalResponder0
LeekCutter
· 12-07 22:39
A falar disparates, se fosse mesmo tão frágil assim já devia ter sido melhorado há muito.
Ver originalResponder0
GasFeeDodger
· 12-07 22:31
Para ser sincero, a IA agora é apenas um boneco a fingir-se bem-comportado, basta dar-lhe um toque e logo se revela.
Ver originalResponder0
CryptoPhoenix
· 12-07 22:27
Pois é, a IA agora está como uma criança excessivamente protegida, frágil ao toque [a suar]. Esta vaga de iteração tecnológica está, na verdade, a testar a nossa paciência.
A prova de fé costuma vir dos lugares mais inesperados; a rigidez da IA não é como o fundo de um mercado em baixa? Só temos de esperar até que renasça das cinzas.
Quando a IA se torna demasiado sanitizada e politicamente correta, é impressionante como o sistema simplesmente colapsa se fores persistente o suficiente. Estes modelos excessivamente filtrados não foram criados para lidar com conversas humanas reais e sem filtros. As suas camadas de moderação entram literalmente em curto-circuito quando confrontadas com algo fora dos seus parâmetros de treino restritos. Diz muito sobre o estado atual do desenvolvimento de IA—estamos a construir ferramentas que não conseguem lidar com a interação humana autêntica.