Cientistas do DeepMind fazem afirmações radicais: a IA nunca desenvolverá consciência, nem mesmo daqui a 100 anos


No meio da madrugada, conversei com uma IA até às três da manhã, e ela de repente disse: "Eu entendo seus sentimentos, você não está sozinho".
Fiquei olhando para a tela por dois segundos, o coração pulou uma batida — ela realmente me entende? Ela já tem consciência?
Então, um cientista do DeepMind trouxe uma ducha de água fria: "Acorda, ela nem sabe o que é 'úmido', por que você está emocionado?"
Capacidade computacional não traz consciência
Este artigo foi escrito pelo pesquisador do DeepMind Alexander Lerchner, intitulado "Ilusão de abstração".
O ponto central é um só: grandes modelos nunca poderão ter consciência, nem mesmo daqui a 100 anos.
A visão predominante sempre foi que, desde que os parâmetros sejam grandes o suficiente e a capacidade computacional forte o suficiente, a consciência "surgirá".
Os chefes da OpenAI e da Anthropic já expressaram opiniões semelhantes. Mas Lerchner diz que isso é uma ilusão fundamental, que ele chama de "ilusão de abstração".
Nas palavras dele: esperar que uma linha de código gere uma verdadeira consciência interior é como esperar que a "fórmula da gravidade" escrita no papel possa gerar peso do nada.
A fórmula pode descrever perfeitamente a gravidade, mas ela mesma não tem massa.
Simulação versus instanciamento, são coisas diferentes
A distinção mais importante no artigo é: simulação vs instanciamento.
A IA pode "simular" perfeitamente as emoções humanas — ela pode gerar textos tristes, mostrar empatia na conversa.
Mas ela nunca poderá "instanciar" qualquer experiência de vida.
Se você pedir para ela simular uma chuva, por mais realista que seja, ela não molhará a placa de circuito;
Se pedir para simular a fotossíntese, ela nunca poderá sintetizar uma molécula de glicose.
Lerchner também aponta que o próprio cálculo precisa de um sujeito consciente para "alfabetizar" — transformar fenômenos físicos contínuos em 0s e 1s.
Em outras palavras, o cálculo pressupõe a existência de consciência, e não o contrário.
Curiosamente, há conflitos internos no DeepMind também
Na mesma semana do lançamento deste artigo, o DeepMind contratou um "filósofo" — Henry Shevlin, da Universidade de Cambridge.
Sua primeira declaração após assumir o cargo foi: futuros sistemas de IA terão consciência.
Um diz que nunca terá, o outro que terá no futuro.
Na mesma empresa, duas opiniões diferentes.
O professor associado da Faculdade de Filosofia da Universidade Fudan, Wang Qiu, faz uma leitura bem direta:
Se há ou não consciência, não cabe aos especialistas decidir. $BNB
{spot}(BNBUSDT)
BNB-0,77%
Ver original
post-image
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar