El historiador y autor Yuval Noah Harari advirtió en el Foro Económico Mundial el martes que la humanidad corre el riesgo de perder el control sobre el lenguaje, que él llamó su “superpoder” definitorio, a medida que la inteligencia artificial opera cada vez más a través de agentes autónomos en lugar de herramientas pasivas. El autor de “Sapiens”, Harari, se ha convertido en una voz frecuente en los debates globales sobre las implicaciones sociales de la inteligencia artificial. Argumentó que los códigos legales, los mercados financieros y la religión organizada dependen casi por completo del lenguaje, dejándolos especialmente expuestos a máquinas que pueden generar y manipular texto a gran escala. “Los humanos conquistaron el mundo no porque seamos los más fuertes físicamente, sino porque descubrimos cómo usar las palabras para hacer que miles, millones y miles de millones de desconocidos cooperen”, dijo. “Este fue nuestro superpoder.” Harari señaló religiones basadas en textos sagrados, incluyendo el judaísmo, cristianismo e islam, argumentando que la capacidad de la IA para leer, retener y sintetizar vastos cuerpos de escritura podría convertir a las máquinas en los intérpretes más autorizados de las escrituras.
“Si las leyes están hechas de palabras, entonces la IA tomará el control del sistema legal”, dijo. “Si los libros son solo combinaciones de palabras, entonces la IA tomará los libros. Si la religión está construida con palabras, entonces la IA tomará la religión.” En Davos, Harari también comparó la difusión de sistemas de IA con una nueva forma de inmigración, y afirmó que el debate sobre la tecnología pronto se centrará en si los gobiernos deberían otorgar a los sistemas de IA la personalidad jurídica. Varios estados, incluyendo Utah, Idaho y Dakota del Norte, ya han aprobado leyes que explícitamente establecen que la IA no puede ser considerada una persona bajo la ley. Harari cerró sus comentarios advirtiendo a los líderes mundiales que actúen rápidamente en las leyes relacionadas con la IA y que no asuman que la tecnología seguirá siendo un sirviente neutral. Comparó el impulso actual por adoptar la tecnología con casos históricos en los que mercenarios posteriormente tomaron el poder.
“Dentro de diez años, será demasiado tarde para que decidan si las IA deben funcionar como personas en los mercados financieros, en los tribunales, en las iglesias”, dijo. “Alguien más ya lo habrá decidido por ustedes. Si quieren influir en hacia dónde va la humanidad, deben tomar una decisión ahora.” Los comentarios de Harari pueden impactar duramente a quienes temen la expansión de la IA, pero no todos estuvieron de acuerdo con su enfoque. La profesora Emily M. Bender, lingüista de la Universidad de Washington, dijo que posicionar riesgos como Harari hizo solo desplaza la atención de los actores humanos e instituciones responsables de construir y desplegar sistemas de IA. “Me parece que en realidad es una estrategia para enmascarar las acciones de las personas y corporaciones que construyen estos sistemas”, dijo Bender a Decrypt en una entrevista. “Y también una demanda de que todos simplemente renunciemos a nuestros propios derechos humanos en muchos ámbitos, incluyendo el derecho a nuestros idiomas, a los caprichos de estas empresas bajo la apariencia de estos llamados sistemas de inteligencia artificial.” Bender rechazó la idea de que “inteligencia artificial” describa una categoría clara o neutral de tecnología. “El término inteligencia artificial no se refiere a un conjunto coherente de tecnologías”, dijo. “Es, en efecto, y siempre ha sido, un término de marketing”, añadiendo que los sistemas diseñados para imitar a profesionales como médicos, abogados o clérigos carecen de casos de uso legítimos. “¿Cuál es el propósito de algo que puede sonar como un médico, un abogado, un clérigo, y así sucesivamente?” dijo Bender. “El propósito allí es fraude. Punto.” Mientras Harari señaló el uso creciente de agentes de IA para gestionar cuentas bancarias e interacciones comerciales, Bender dijo que el riesgo radica en cuán fácilmente las personas confían en salidas generadas por máquinas que parecen autoritativas—mientras carecen de responsabilidad humana.
“Si tienes un sistema que puedes cuestionar con una pregunta y que te devuelve algo que parece una respuesta—que está despojada de su contexto y sin ninguna responsabilidad por la respuesta, pero presentada como proveniente de un oráculo omnisciente—entonces puedes entender cómo las personas querrían que eso exista”, dijo Bender. “Creo que hay mucho riesgo de que las personas empiecen a orientarse hacia eso y usen esa salida para moldear sus propias ideas, creencias y acciones.”