Un juez estadounidense cuestiona la represión del Pentágono contra Anthropic, con enfoque en la libertad de la inteligencia artificial

GateNews

Gate News Noticias, la jueza federal de San Francisco, Rita Lin, dictaminó que las acciones del Pentágono contra Anthropic podrían violar la Primera Enmienda de la Constitución y constituyen una represalia contra la libertad de expresión. La compañía había condenado públicamente las acciones del “Departamento de Guerra”, lo que provocó una fuerte reacción del gobierno. La demanda ha sido trasladada a un tribunal de California, donde Anthropic solicita la revocación de su etiqueta de “riesgo en la cadena de suministro”, que llevó a la prohibición gubernamental de su modelo de inteligencia artificial Claude.

La jueza señaló que las medidas del gobierno parecen no estar relacionadas con la seguridad nacional, sino más bien como una sanción contra Anthropic. Michael Mungan, representante de Anthropic, afirmó que esta práctica no había ocurrido antes, que la autoridad era limitada y que no se aplicaba a una prohibición total de la tecnología AI. La jueza enfatizó que el asunto central es si el gobierno actuó ilegalmente, no la legitimidad de dejar de usar AI.

Anteriormente, Anthropic había colaborado con varias agencias federales y firmado un contrato de 200 millones de dólares con el Pentágono para operar sistemas en redes confidenciales. Sin embargo, las negociaciones se estancaron al integrar Claude en la plataforma GenAI.mil. El Pentágono busca acceso completo para tareas militares, pero Anthropic se opone claramente a usar su tecnología con fines militares y busca restricciones más estrictas. El abogado del gobierno, Hamilton, afirmó que la compañía no rechaza el contrato, sino que cuestiona la legalidad del uso militar.

El sistema de inteligencia artificial Claude se ha actualizado recientemente, permitiendo automatizar tareas en la computadora del usuario, como presentar diapositivas o enviar invitaciones con archivos adjuntos, entrando en la competencia de agentes de IA que operan sin intervención continua. El éxito de OpenClaw ha acelerado esta tendencia, y tanto Anthropic como modelos de OpenAI pueden recibir tareas a través de WhatsApp o Telegram, acceder a archivos locales y realizar operaciones automatizadas eficientes.

Esta decisión no solo involucra el uso militar de la tecnología AI y el cumplimiento de contratos, sino que también genera preocupación sobre el posible abuso de poder del gobierno de EE. UU. en el ámbito de la innovación digital. El caso de Anthropic destaca la compleja lucha entre el desarrollo de inteligencia artificial, la libertad de expresión y la autonomía tecnológica, y su impacto futuro podría extenderse a más empresas innovadoras y al ecosistema global de IA.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios