O historiador e autor Yuval Noah Harari alertou na terça-feira, no Fórum Económico Mundial, que a humanidade corre o risco de perder o controlo sobre a linguagem, que ele chamou de seu “superpoder” definidor, à medida que a inteligência artificial opera cada vez mais através de agentes autónomos em vez de ferramentas passivas. O autor de “Sapiens” tornou-se uma voz frequente nos debates globais sobre as implicações sociais da inteligência artificial. Ele argumentou que códigos legais, mercados financeiros e religiões organizadas dependem quase totalmente da linguagem, deixando-os especialmente expostos a máquinas que podem gerar e manipular texto em grande escala. “Os humanos conquistaram o mundo não porque somos os mais fortes fisicamente, mas porque descobrimos como usar palavras para fazer milhares, milhões e bilhões de estranhos cooperarem,” disse ele. “Este foi o nosso superpoder.” Harari apontou para religiões fundamentadas em textos sagrados, incluindo Judaísmo, Cristianismo e Islão, argumentando que a capacidade da IA de ler, reter e sintetizar vastos corpos de escrita poderia tornar as máquinas os intérpretes mais autoritários das escrituras.
“Se as leis são feitas de palavras, então a IA assumirá o sistema jurídico,” afirmou. “Se os livros são apenas combinações de palavras, então a IA assumirá os livros. Se a religião é construída a partir de palavras, então a IA assumirá a religião.” Em Davos, Harari também comparou a disseminação de sistemas de IA a uma nova forma de imigração, e disse que o debate em torno da tecnologia logo se concentrará na questão de se os governos devem conceder personalidade jurídica às IAs. Vários estados, incluindo Utah, Idaho e Dakota do Norte, já aprovaram leis que afirmam explicitamente que a IA não pode ser considerada uma pessoa sob a lei. Harari encerrou suas observações alertando os líderes globais para agirem rapidamente em relação às leis sobre IA e não presumirem que a tecnologia permanecerá uma serva neutra. Ele comparou a atual pressão para adotar a tecnologia a casos históricos em que mercenários posteriormente tomaram o poder.
“Daqui a dez anos, já será tarde demais para decidir se as IAs devem funcionar como pessoas nos mercados financeiros, nos tribunais, nas igrejas,” disse ele. “Alguém já terá decidido isso por você. Se quer influenciar o rumo da humanidade, precisa tomar uma decisão agora.” Os comentários de Harari podem impactar duramente aqueles que temem a expansão da IA, mas nem todos concordaram com a sua abordagem. A professora Emily M. Bender, linguista na Universidade de Washington, afirmou que riscos como os que Harari colocou apenas desviam a atenção dos atores humanos e das instituições responsáveis por construir e implementar sistemas de IA. “Para mim, parece que é uma tentativa de obscurecer as ações das pessoas e corporações que constroem esses sistemas,” disse Bender ao Decrypt em uma entrevista. “E também uma exigência de que todos simplesmente abdiquem de nossos próprios direitos humanos em muitos domínios, incluindo o direito às nossas línguas, aos caprichos dessas empresas sob a aparência de sistemas de inteligência artificial.” Bender rejeitou a ideia de que “inteligência artificial” descreve uma categoria clara ou neutra de tecnologia. “O termo inteligência artificial não se refere a um conjunto coerente de tecnologias,” afirmou. “É, efetivamente, e sempre foi, um termo de marketing,” acrescentando que sistemas projetados para imitar profissionais como médicos, advogados ou clérigos carecem de casos de uso legítimos. “Qual é o propósito de algo que pode soar como um médico, um advogado, um clérigo, e assim por diante?” perguntou Bender. “O propósito aí é fraude. Ponto final.” Enquanto Harari apontou para o uso crescente de agentes de IA para gerenciar contas bancárias e interações comerciais, Bender afirmou que o risco reside na facilidade com que as pessoas confiam em saídas geradas por máquinas que parecem autoritárias—enquanto carecem de responsabilidade humana.
“Se você tem um sistema que pode ser questionado e que devolve uma resposta que parece uma resposta—que está desprovida de seu contexto e de qualquer responsabilidade pela resposta, mas apresentada como vindo de um oráculo todo-sábio—então você consegue entender por que as pessoas desejariam que isso existisse,” disse Bender. “Acredito que há um grande risco de as pessoas começarem a se orientar por isso e usarem essa saída para moldar suas próprias ideias, crenças e ações.”