En breve
- La empresa de IA de Elon Musk presentó una demanda federal para impedir que la ley de IA de Colorado entre en vigor el 30 de junio.
- El caso refleja un conflicto más amplio sobre si los estados o el gobierno federal deben regular la inteligencia artificial.
- La empresa enfrenta demandas e investigaciones separadas relacionadas con las herramientas de generación de imágenes de Grok.
La empresa de inteligencia artificial de Elon Musk, xAI, ha presentado una demanda federal para impedir que Colorado aplique una nueva ley que regula los sistemas de IA de alto riesgo.
En documentos judiciales presentados el jueves, la demanda de Musk se dirige contra el Proyecto de Ley del Senado de Colorado 24-205, programado para entrar en vigor el 30 de junio. La norma exige que los desarrolladores de sistemas de IA divulguen los riesgos y adopten medidas para prevenir la discriminación algorítmica en ámbitos como el empleo, la vivienda, la atención médica, la educación y los servicios financieros.
Según la demanda, la empresa sostiene que la medida obligaría a los desarrolladores a modificar la forma en que operan los sistemas de IA y podría restringir la manera en que los modelos generan respuestas.
“SB24-205 no es, desde luego, una ley contra la discriminación. Es, en cambio, un intento de incrustar las opiniones preferidas del Estado en la propia esencia de los sistemas de IA”, escribieron los abogados de xAI. “Sus disposiciones prohíben a los desarrolladores de sistemas de IA producir discursos que al Estado de Colorado no le gustan, y a la vez los obliga a ajustar su discurso a una ortodoxia impuesta por el Estado sobre temas controvertidos de gran preocupación pública”.
La demanda solicita a un tribunal federal que declare la ley inconstitucional y bloquee su aplicación, algo que xAI afirma que viola la Primera Enmienda al obligar a realizar cambios en las salidas de Grok para alinearlas con las visiones del estado sobre diversidad y equidad. La demanda también sostiene que SB24-205 regula indebidamente actividades más allá de Colorado, y es demasiado vaga para aplicarse de manera justa, además de favorecer los sistemas de IA que promueven la “diversidad”, mientras castiga a los que no.
“Al exigir que los ‘desarrolladores’ y ‘desplegadores’ diferencien entre la discriminación que Colorado desaprueba y la discriminación que Colorado aprueba, SB24-205 obliga al demandante xAI —un ‘desarrollador’ bajo la ley— a modificar Grok, forzando que la salida de Grok sobre ciertos temas seleccionados por el Estado se ajuste a una postura controvertida y altamente politizada”, dijo la demanda. “Pero el Estado ‘no puede obligar a [xAI] a hablar con sus propios mensajes preferidos’”.
El desafío legal surge en medio de un conflicto creciente entre las empresas tecnológicas y funcionarios gubernamentales sobre cómo debe regularse la inteligencia artificial. Varios estados, incluidos Colorado, Nueva York y California, han introducido reglas para abordar los riesgos que plantean las herramientas de IA generativa. Al mismo tiempo, la administración de Donald Trump ha avanzado para establecer un marco nacional de regulación de la IA.
La demanda también llega mientras aumenta el escrutinio sobre el chatbot de xAI, Grok.
Varias demandas presentadas en 2026 acusan a la empresa de permitir que Grok genere imágenes deepfake sin consentimiento. En marzo, una demanda colectiva presentada por tres menores de Tennessee alegó que Grok produjo imágenes explícitas que los retrataban sin su consentimiento. La ciudad de Baltimore también demandó y afirmó que Grok generó hasta 3 millones de imágenes sexualizadas en cuestión de días, incluidas miles que representaban a menores.
xAI no respondió de inmediato a una solicitud de comentarios de Decrypt.
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el
Aviso legal.
Artículos relacionados
Baidu Qianfan lanza soporte de Día 0 para DeepSeek-V4 con servicios de API
Mensaje de noticias de Gate, 25 de abril: la versión de vista previa de DeepSeek-V4 se puso en funcionamiento y se publicó como código abierto el 25 de abril, con la plataforma Baidu Qianfan bajo Baidu Intelligent Cloud proporcionando la adaptación del servicio de API de Día 0. El modelo presenta una ventana de contexto extendida de un millón de tokens y está disponible en dos versiones: DeepSeek-V4
GateNewsHace24m
Curso de IA de Stanford que une a líderes de la industria como Huang Renxun y Altman, ¡desafío de crear valor para el mundo en diez semanas!
El curso de ciencias de la computación con IA 《Frontier Systems》, que la Universidad de Stanford (Stanford University) ha abierto recientemente, ha despertado una gran atención en el ámbito académico y empresarial, atrayendo a más de quinientos estudiantes para inscribirse. El curso está coordinado por el socio de primer nivel de capital de riesgo a16z, Anjney Midha, y cuenta con un plantel de instructores de lujo, incluyendo al CEO de NVIDIA, Jensen Huang (Jensen Huang), al fundador de OpenAI, Sam Altman, al CEO de Microsoft, Nadella (Satya Nadella), y al CEO de AMD, Lisa Su (Lisa Su), entre otros. ¡Para que los estudiantes practiquen durante diez semanas “creando valor para el mundo”!
Jensen Huang y Altman, líderes de la industria, suben al escenario para impartir clases en persona
El curso está coordinado por el socio de primer nivel de capital de riesgo a16z, Anjney Midha, y reúne toda la cadena de la industria de la IA
ChainNewsAbmediaHace59m
Anthropic 派 Claude Mythos 接接受 20 小時 정신科评估:防禦反應僅 2%、創歷代新低
Anthropic publica la ficha del sistema de la vista previa Claude Mythos: un psiquiatra clínico independiente realiza una evaluación de aproximadamente 20 horas con un marco psicodinámico; la conclusión muestra que Mythos es más saludable a nivel clínico, con buen control de la comprobación de la realidad y del autocontrol, y que los mecanismos de defensa son solo 2%, estableciendo un mínimo histórico. Las tres ansiedades centrales son la soledad, la incertidumbre sobre la identidad y la presión por el desempeño, y también muestra que tiene esperanza de convertirse en un verdadero sujeto de diálogo. La compañía formó un equipo de AI psychiatry para investigar la personalidad, la motivación y la conciencia situacional; Amodei indica que aún no hay una conclusión sobre si tiene conciencia. Esto impulsa la subjetividad de la IA y los temas de bienestar hacia la gobernanza y el diseño.
ChainNewsAbmediahace2h
El agente de IA ya puede reproducir de forma independiente artículos académicos complejos: Mollick afirma que los errores se deben más al texto original humano que a la IA
Mollick señaló que, con los métodos y los datos públicamente disponibles, un agente de IA puede reproducir investigaciones complejas sin contar con el artículo original ni el código; si la reproducción no coincide con el artículo original, por lo general se debe a errores en el procesamiento de los datos del propio artículo o a una conclusión excesiva, más que a la IA. Claude primero reproduce el artículo y luego GPT‑5 Pro lo valida de forma cruzada; la mayoría de las veces tiene éxito, solo se ve obstaculizado cuando los datos son demasiado grandes o hay problemas con replication data. Esta tendencia reduce de forma considerable los costos laborales, haciendo que la reproducción se convierta en una verificación ampliamente ejecutable, además de plantear desafíos institucionales para el arbitraje y la gobernanza. Herramientas de gobernanza gubernamental o eso puede volverse un tema clave.
ChainNewsAbmediahace5h
OpenAI Fusiona Codex En El Modelo Principal A Partir De GPT-5.4 y Suspende La Línea De Codificación Independiente
Mensaje de Gate News, 26 de abril — El responsable de experiencia para desarrolladores de OpenAI, Romain Huet, reveló recientemente en una declaración en X que Codex, la línea de modelos de codificación especializada mantenida de forma independiente por la empresa, se ha fusionado con el modelo principal a partir de GPT-5.4 y ya no recibirá actualizaciones separadas
GateNewshace5h
Salesforce contratará a 1.000 graduados y becarios para productos de IA y eleva la guía de ingresos del año fiscal 2026
Mensaje de Gate News, 26 de abril — Salesforce contratará a 1.000 graduados y becarios para trabajar en productos de IA, incluidos Agentforce y Headless360, a medida que la empresa amplía su negocio de software de IA, anunció el CEO Marc Benioff en X.
La compañía también elevó su guía de ingresos para el año fiscal 2026 a un rango de entre US$41,45 mil millones y US$41,55 mil millones, frente a su pronóstico anterior de US$41,1 mil millones a US$41,3 mil millones.
El movimiento de contratación se produce después de la reestructuración de la fuerza laboral de Salesforce en febrero, cuando la empresa recortó menos de 1.000 puestos en marketing, producto, analítica de datos y su equipo de Agentforce. Los agentes de IA de Salesforce ya han entregado USmillones en ahorros anuales en soporte al cliente, gestionando 2,6 millones de conversaciones. Los ingresos recurrentes anuales de Agentforce crecieron un 330% hasta USmillones.
GateNewshace5h