El presidente Donald Trump firmó una orden ejecutiva el 11 de diciembre de 2025 que tiene como objetivo reemplazar las leyes de IA a nivel estatal que la administración considera que obstaculizan la innovación en IA.
Las leyes estatales que rigen la IA van en aumento, especialmente en respuesta al surgimiento de sistemas generativos de IA como ChatGPT que producen texto e imágenes. En 2025, treinta y ocho estados aprobaron leyes que regulan la inteligencia artificial de una forma u otra. Van desde prohibir el acoso a los robots impulsados por IA hasta prohibir los sistemas de IA que pueden manipular el comportamiento humano.
La orden ejecutiva declara que la política de Estados Unidos es producir el marco nacional “menos gravoso” para la IA. La orden pide al fiscal general de EE. UU. que cree un grupo de trabajo de litigios sobre IA para impugnar las leyes estatales sobre IA que sean incompatibles con la política. También ordena al Secretario de Comercio que identifique leyes estatales de IA “gravosas” que entren en conflicto con la política y que niegue la financiación del Programa de Implementación y Equidad de Banda Ancha a los estados con esas leyes. La orden ejecutiva exime las leyes estatales de IA relacionadas con la seguridad infantil.
Las órdenes ejecutivas son directivas para las agencias federales sobre cómo implementar las leyes existentes. La orden ejecutiva de AI ordena a los departamentos y agencias federales que tomen medidas que, según la administración, están dentro de su autoridad legal.
Las grandes empresas de tecnología han presionado al gobierno federal para que haga retroceder las regulaciones estatales sobre IA. Las empresas han argumentado que la carga de cumplir con múltiples regulaciones gubernamentales obstaculiza la innovación.
Los defensores de las leyes estatales tienden a enmarcarlas como intentos de equilibrar la seguridad pública y el beneficio económico. Las leyes de California, Colorado, Texas y Utah son ejemplos destacados. Estas son algunas de las principales leyes estatales que rigen la IA y que podrían ser objeto de la orden ejecutiva:
Discriminación algorítmica
La Ley de Protección al Consumidor de IA de Colorado es la primera ley estatal integral en los EE. UU. que tiene como objetivo regular los sistemas de inteligencia artificial utilizados en las decisiones de empleo, vivienda, crédito, educación y atención médica. Sin embargo, la implementación de la ley se ha retrasado mientras el parlamento estatal considera sus ramificaciones.
El enfoque de la ley de IA de Colorado son los sistemas de IA predictivos, que toman decisiones, en lugar de la IA generativa más nueva como ChatGPT, que crea contenido.
La ley de Colorado tiene como objetivo proteger a las personas de la discriminación algorítmica. La ley exige que las organizaciones que utilizan estos “sistemas de alto riesgo” realicen evaluaciones del impacto de la tecnología, informen a los consumidores si se utilizará inteligencia artificial predictiva en decisiones importantes sobre ellos y revelen públicamente los tipos de sistemas que utilizan y cómo planean gestionar los riesgos de discriminación algorítmica.
Una ley similar de Illinois que entrará en vigor el 1 de enero de 2026 modifica la Ley de Derechos Humanos de Illinois para convertir en una violación de los derechos civiles que los empleadores utilicen herramientas de inteligencia artificial que resulten en discriminación.
en la ‘frontera’
La Ley de Transparencia de la Inteligencia Artificial Límite de California describe las barreras para el desarrollo de los modelos de IA más potentes. Estos modelos, llamados modelos de línea de base o de límites, son cualquier modelo de IA que se entrena con conjuntos de datos extremadamente grandes y diversos y que se pueden adaptar a una amplia gama de tareas sin capacitación adicional. Incluyen modelos que admiten los chatbots OpenAI ChatGPT y Google Gemini AI.
La ley de California sólo se aplica a los modelos de IA más grandes del mundo (aquellos que cuestan al menos 100 millones de dólares y requieren al menos 1026) o 100.000.000.000.000.000.000.000.000 (operaciones de potencia informática de punto flotante para entrenamiento). Las operaciones de coma flotante son aritméticas que permiten a las computadoras calcular números grandes.
Los modelos de IA más potentes de la actualidad requerían mucha más potencia informática para entrenarse que los modelos anteriores. El eje vertical son las operaciones de punto flotante, una medida de la potencia informática. Robbie Rahman, David Owen y Josh You (2024), ‘Seguimiento de grandes modelos de IA’. Publicado en línea en epoch.ai., CC BI
Los modelos de aprendizaje automático pueden producir resultados poco fiables, impredecibles e inexplicables. Esto presenta desafíos para regular la tecnología.
Su funcionamiento interno es invisible para los usuarios y, a veces, incluso para sus creadores, lo que les lleva a denominarse cajas negras. El Índice de Transparencia de Modelos de la Fundación muestra que estos grandes modelos pueden ser bastante opacos.
Los riesgos de modelos de IA tan grandes incluyen uso malicioso, fallas y riesgos sistémicos. Estos modelos pueden plantear potencialmente riesgos catastróficos para la sociedad. Por ejemplo, alguien podría utilizar un modelo de IA para crear un arma que cause víctimas masivas, o ordenar a alguien que orqueste un ciberataque que cause daños por miles de millones de dólares.
La ley de California exige que los desarrolladores de modelos de IA de frontera describan cómo incorporan estándares nacionales e internacionales y las mejores prácticas consensuadas de la industria. También les exige que proporcionen un resumen de cada evaluación de riesgo catastrófico. La ley también ordena a la Oficina de Manejo de Emergencias del estado que establezca un mecanismo para que cualquier persona informe un incidente de seguridad crítico y presente de manera confidencial resúmenes de todas las evaluaciones de riesgo potencial de desastre.
Divulgaciones y responsabilidad
Texas aprobó la Ley de Administración Responsable de la Inteligencia Artificial de Texas, que impone restricciones al desarrollo y despliegue de sistemas de inteligencia artificial para fines como la manipulación del comportamiento. Las disposiciones de puerto seguro de la Ley de IA de Texas tienen como objetivo proporcionar un incentivo para que las empresas documenten el cumplimiento de los marcos de gobernanza responsable de la IA, como el Marco de gestión de riesgos de IA del NIST.
Lo nuevo de la ley de Texas es que prevé la creación de un “sandbox” (un entorno aislado donde el software puede probarse de forma segura) para que los desarrolladores prueben el comportamiento de los sistemas de IA.
La Ley de Política de IA de Utah impone requisitos de divulgación a las organizaciones que utilizan herramientas de IA generativa con sus clientes. Dichas leyes garantizan que una empresa que utiliza herramientas de IA generativa asuma la responsabilidad final por las responsabilidades resultantes y los daños al consumidor y no pueda echarle la culpa a la IA. La ley es la primera en el país que exige protecciones al consumidor y exige que las empresas revelen de manera destacada cuándo un consumidor interactúa con un sistema de inteligencia artificial generativa.
Otros movimientos
Los estados también están tomando otras medidas legales y políticas para proteger a sus ciudadanos del daño potencial de la inteligencia artificial.
El gobernador republicano de Florida, Ron DeSantis, ha dicho que se opone a los esfuerzos federales para anular las regulaciones estatales sobre IA. También propuso una declaración de derechos de la IA en Florida para abordar los “peligros obvios” de la tecnología.
Mientras tanto, los fiscales generales de 38 estados y los fiscales generales del Distrito de Columbia, Puerto Rico, Samoa Americana y las Islas Vírgenes de EE.UU. han pedido a las empresas de IA, incluidas Anthropic, Apple, Google, Meta, Microsoft, OpenAI, Perplexity AI y kAI, que arreglen los sistemas de salida de IA falsos y engañosos. Estos son resultados que pueden llevar a los usuarios a confiar demasiado o incluso a engañarse con los sistemas de IA.
No está claro qué efecto tendrá la orden ejecutiva y los observadores han dicho que es ilegal porque sólo el Congreso puede anular las leyes estatales. La disposición final de la orden ordena a los funcionarios federales que propongan legislación para hacerlo.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

