En 48 horas, el panorama legal que rige las redes sociales y los niños cambió de una manera que llevará años comprender y validar por completo.
El 24 de marzo de 2026, un jurado de Santa Fe ordenó a Meta pagar 375 millones de dólares por violar las leyes de protección al consumidor de Nuevo México. Al día siguiente, un jurado de Los Ángeles encontró que Meta y Google YouTube habían sido negligentes en el diseño de sus plataformas y concedió casi 6 millones de dólares en daños y perjuicios a un demandante.
Las cifras en dólares acaparan los titulares, pero una multa de 375 millones de dólares para una empresa de 1,5 billones de dólares es un error de redondeo. La indemnización es menos del 2% de los ingresos netos de Meta de 22.800 millones de dólares en 2025. Las acciones de Meta subieron un 5% el día del fallo en Nuevo México, lo que indica cómo el mercado estaba evaluando el efecto de la sanción en la empresa.
Las multas sin cambios estructurales se parecen más a derechos de licencia que a responsabilidad. Como experto en políticas y leyes tecnológicas, creo que la cuestión de si estos fallos producirán un cambio real en los productos que millones de niños usan todos los días es mucho más importante que los premios del jurado.
La respuesta es no todavía, y no automáticamente. La sanción financiera no reescribe una sola línea de código, no elimina un algoritmo ni coloca a un ingeniero de seguridad en un rol que fue eliminado para proteger el informe de ganancias trimestral. Meta y Google han indicado que apelarán, y es probable que los desafíos de la Primera Enmienda a la teoría del diseño de productos sean un campo de batalla central.
Los abogados de las empresas probablemente argumentarán, con cierta justificación, que la ciencia que vincula el diseño de la plataforma con los daños a la salud mental sigue siendo objeto de controversia y que las empresas ya han implementado salvaguardias. Mientras tanto, Instagram, Facebook y YouTube seguirán funcionando como lo hacían antes del fallo.
Los veredictos Matta allanaron el camino para cientos o incluso miles de casos similares. Protección al consumidor
La mayor parte de la cobertura del fallo de Nuevo México lo presenta como un caso de seguridad infantil. Lo es, pero también representa una dimensión técnicamente más significativa: un reclamo de protección al consumidor basado en acusaciones de engaño corporativo. El Fiscal General de Nuevo México, Raúl Torrez, no demandó a Meta por lo que publicaron los usuarios, sino que demandó a Meta por hacer declaraciones falsas sobre la seguridad de su propia plataforma, utilizando un nuevo enfoque legal.
Durante tres décadas, la Sección 230 de la Ley de Decencia en las Comunicaciones ha protegido a las plataformas de Internet de la responsabilidad por el contenido generado por sus usuarios. Los tribunales han interpretado la inmunidad del artículo 230 de manera amplia, y muchos intentos anteriores de responsabilizar a las plataformas por daños a los niños han fracasado.
La denuncia de Nuevo México, presentada en diciembre de 2023, se redactó teniendo en cuenta explícitamente este obstáculo. Sólo hizo una pregunta: ¿Meta mintió conscientemente a los consumidores de Nuevo México sobre la seguridad de sus productos?
La respuesta del jurado fue sí, en todos los aspectos, y su veredicto se basó en tres teorías legales diferentes según la Ley de Prácticas Desleales de Nuevo México.
El primero fue un engaño absoluto: las declaraciones públicas de Meta, que van desde el testimonio del CEO Mark Zuckerberg ante el Congreso argumentando que la investigación sobre la adicción a las plataformas no es concluyente hasta los materiales de orientación para padres que omiten los riesgos conocidos de la preparación y la explotación sexual, califican como declaraciones relacionadas con una transacción comercial.
Los usuarios de la plataforma Meta no pagan con dinero, sino con sus datos, que Meta convierte luego en ingresos publicitarios. Nuevo México argumentó con éxito que este intercambio de datos por servicios constituía comercio según el estatuto de protección al consumidor del estado y que las tergiversaciones realizadas en el mismo eran procesables a pesar de la sección 230.
Otra teoría era la práctica desleal o conducta ofensiva al orden público, aunque no fuera técnicamente fraudulenta. En este caso, la evidencia se centró en lo que los ingenieros y ejecutivos de Meta sabían y luego ignoraron.
Los documentos internos mostraban repetidas advertencias. Estas alarmas se centraron en el material de abuso sexual infantil que circulaba en las plataformas, los algoritmos que impulsaban el contenido dañino porque generaba participación y los sistemas de verificación de edad que eran esencialmente cosméticos. La empresa ignoró esas advertencias por motivos comerciales.
Al jurado se le mostró una secuencia específica: los ejecutivos de Meta pidieron al personal que se ocupara de los daños a la plataforma, Zuckerberg se negó y la compañía continuó presentando públicamente sus esfuerzos de seguridad como adecuados.
La tercera teoría era la inconsciencia: aprovecharse de consumidores que no tienen capacidad para protegerse. Los niños son el caso más claro posible. Los niños no pueden evaluar los términos de servicio, no pueden negociar la arquitectura de la plataforma y no pueden evaluar las implicaciones neurológicas del diseño que maximiza el compromiso. Meta realizó una extensa investigación interna que documentó estas vulnerabilidades y decidió ignorarlas en lugar de mitigarlas.
Un referente en adicción
El caso en Los Ángeles, que terminó el 25 de marzo, puso a prueba una teoría diferente. Fue un juicio por lesiones personales, no una acción gubernamental.
La demandante, identificada en el tribunal como KGM, es una mujer de 20 años que comenzó a usar YouTube a los 6 años e Instagram a los 9. Sus abogados argumentaron que las elecciones deliberadas de diseño de la plataforma, como el desplazamiento infinito, la reproducción automática de videos y los algoritmos de recomendación basados en la participación, fueron las causas de su adicción, depresión y autolesión.
El jurado concluyó que tanto Meta como YouTube fueron negligentes en el diseño de sus respectivas plataformas y concluyó que la negligencia de cada empresa fue un factor importante en la lesión de KGM. Target asume el 70% de la obligación; YouTube 30%. La compensación individual de 3 millones de dólares es modesta. La fase de daños punitivos, que aún está por llegar, se calculará en función del patrimonio neto de cada empresa y probablemente arrojará una cifra muy diferente.
El abogado y los familiares de niños víctimas de abuso en las redes sociales reaccionan al veredicto de la demanda en Los Ángeles el 25 de marzo de 2026. Frederic J. Brown/AFP vía Getty Images
Más allá de un precedente general, este caso es importante porque se trata de un campanario. Fue seleccionado de un grupo consolidado de cientos de demandas similares para probar si una teoría de responsabilidad por el diseño de un producto podría sobrevivir a un juicio con jurado, y así fue. Ese hallazgo tiene implicaciones inmediatas y concretas: cada uno de esos demandantes está ahora litigando sobre bases más sólidas, y si los daños otorgados a KGM se extienden incluso parcialmente a casos similares, la exposición financiera total para Meta y YouTube oscila entre cientos de millones y miles de millones de dólares.
Más importante aún, el fallo indica a todos los demás fiscales, procuradores y procuradores generales que esta vía legal es viable, y a todas las plataformas que la sala del tribunal ya no es un puerto seguro. La estrategia legal encontró que las demandas por negligencia contra el diseño de plataformas son viables en los tribunales de California.
molestias publicas
A partir del 4 de mayo de 2026, el juez Brian Bidscheid en el caso de Nuevo México está programado para escuchar cargos de alteración del orden público sin un juicio con jurado. La molestia pública es una doctrina legal utilizada tradicionalmente para abordar condiciones que dañan al público en general. Esta doctrina se ha utilizado en preocupaciones sobre el agua contaminada, la pintura con plomo en las viviendas y las redes de distribución de opioides.
Nuevo México afirma que la arquitectura de la plataforma Mete presenta precisamente ese requisito. Si el juez está de acuerdo, el remedio no es una multa. Más bien, es una reducción: una orden judicial que exige que Target elimine una condición perjudicial.
El Procurador General Torrez ya ha sido específico sobre lo que buscará: verificación de la edad real, no una casilla de verificación que solicite a los usuarios que confirmen que tienen edad suficiente; cambios de algoritmo; y un supervisor independiente con autoridad para supervisar el cumplimiento. Estos son los requisitos estructurales de cómo funciona la plataforma.
Aquí es donde resulta apropiado establecer un paralelo con las grandes tabacaleras. El litigio sobre el tabaco de la década de 1990 finalmente produjo no sólo acuerdos financieros sino también el Acuerdo Marco, que impuso restricciones permanentes a las prácticas de comercialización y financió programas de salud pública durante décadas. La teoría de la molestia pública en el caso de Nuevo México fue diseñada para producir un resultado estructural análogo para las redes sociales.
Un precedente para una oleada de casos
Ese hallazgo, y las teorías legales que lo produjeron, son ahora parte de la base sobre la que probablemente se construirán los más de 40 casos pendientes del fiscal general del estado, miles de demandas individuales y un juicio federal a finales de este año.
La fase de reducción, que comienza el 4 de mayo, puede resultar más significativa que el monto en dólares. Si el juez en el caso de Nuevo México –o cualquier juez en el caso siguiente– ordena verificación en edad real, cambios de algoritmo y un monitor independiente, eso sería un verdadero cambio estructural.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

