El jurado en Los Ángeles marcó el antes y el después. La histórica sentencia del 25 de marzo de 2026 ordena a Google -propietario de YouTube- y Meta -matriz de Instagram, Facebook y WhatsApp- a indemnizar a la joven con tres millones de dólares por los daños causados por el “diseño adictivo” de sus plataformas. No se trata sólo de noticias internacionales; Es un espejo en el que Europa, y especialmente España, podrían seguir su ejemplo.
Diseño, declarado “culpable”
La sentencia es revolucionaria en su enfoque: no juzga el contenido, sino la arquitectura misma de la adicción. Y ante esta nueva frontera de la responsabilidad digital, la pregunta es inevitable: ¿tenemos las herramientas en nuestro sistema para seguir ese camino? La respuesta es un rotundo sí.
Esta sentencia abre la puerta a la responsabilidad objetiva en España, que ya cuenta con un arsenal jurídico preparado para proteger a los usuarios de algoritmos manipuladores.
En Europa, la inteligencia artificial está bajo sospecha
Ya se ha establecido el primer pilar importante para construir un caso similar en Europa. El reciente Reglamento de la UE sobre Inteligencia Artificial, norma pionera a nivel mundial, marca líneas rojas muy claras. Como se discutió en el Parlamento Europeo, la ley prohíbe específicamente los sistemas de inteligencia artificial que utilizan técnicas subliminales que van más allá de la conciencia humana para cambiar el comportamiento de una persona de una manera que le cause daño.
Su artículo 5 establece “prácticas prohibidas de inteligencia artificial”, que incluyen sistemas de inteligencia artificial que:
Tienen el objetivo o efecto de cambiar fundamentalmente el comportamiento humano y es probable que causen daños importantes.
Utilizar componentes subliminales (estímulos más allá de la percepción humana) u otras técnicas manipulativas o engañosas que perjudiquen la autonomía y la capacidad de elección de las personas.
¿No es ésta una descripción precisa de los algoritmos de diseño adictivos?
Mecanismos como el desplazamiento infinito, la reproducción automática predeterminada o un sistema de notificaciones constantes no son meras funcionalidades; Son técnicas de ingeniería del comportamiento diseñadas para captar y mantener nuestra atención, explotando a menudo debilidades psicológicas que se acentúan cuando los usuarios también son menores de edad.
Operan a un nivel que escapa al control consciente del usuario, creando patrones de uso compulsivo. Por lo tanto, las nuevas regulaciones europeas no sólo las regulan, sino que podrían considerarse completamente ilegales, abriendo una vía directa de queja contra quienes las diseñan e implementan.
El arsenal jurídico español: un enfoque integral
Al margen de la futura normativa europea, la actual legislación española ofrece todo un abanico de instrumentos para afrontar este reto.
De una manera sorprendentemente complicada, nuestro sistema legal ya reconoce adicciones “intrascendentes”. El artículo 2 de la Ley 1/2016, de atención integral de las adicciones y drogodependencias, considera adicciones comportamentales como “un comportamiento excesivo en el uso de las tecnologías digitales y sus nuevas aplicaciones, especialmente las relacionadas con el uso de las redes sociales y los videojuegos”.
La ley no sólo lo reconoce, sino que en su artículo 51 anima a las administraciones a desarrollar medidas para prevenir el riesgo de uso excesivo. Esto proporciona una base legal sólida para argumentar que un diseño que fomenta activamente estos comportamientos es en sí mismo una práctica ilegal.
Protección reforzada de los menores
El caso de Los Ángeles se centró en el daño sufrido por una joven que se volvió adicta durante su infancia. En España, la Ley Orgánica 8/2021, de protección integral de niños y adolescentes frente a la violencia, establece en su artículo 46 la obligación de la administración de promover un “entorno digital seguro” y de cooperar con el sector privado para proteger a los menores de contenidos y contactos nocivos. El diseño adictivo es, por definición, un entorno digital inseguro para un menor.
Por otro lado, la Ley Orgánica 3/2018, de protección de datos personales y garantía de los derechos digitales, es otra pieza clave, ya que los algoritmos adictivos se alimentan de la gran cantidad de datos personales que recogen para crear perfiles de comportamiento ultrapersonalizados. Esta práctica entra directamente en conflicto con el requisito del consentimiento libre e informado.
¿Puede considerarse “libre” el consentimiento otorgado en una interfaz diseñada para manipular la voluntad del usuario? La respuesta “parece” negativa.
Responsabilidad de la plataforma: del diseño defectuoso al delito
El argumento central en el caso estadounidense –responsabilidad por el diseño, no por el contenido– es una clave importante que también podría abrir la puerta a los tribunales en España, ya que el precedente es primordial.
Tanto en este país como en Europa tenemos normativas encaminadas a proteger a los usuarios de estas empresas multinacionales.
La Ley Europea de Servicios Digitales (DSA) exige plataformas muy grandes para evaluar y mitigar los “riesgos sistémicos”, incluidos los efectos negativos sobre la salud mental.
Esto va más allá de la moderación de contenidos. El diseño adictivo es un riesgo sistémico inherente a la propia estructura del servicio. Esto nos permite superar el tradicional “puerto seguro” del artículo 16 de la Ley 34/2002, de 11 de julio, ya que la plataforma no actúa como mero intermediario, sino como artífice activo de un entorno nocivo.
Del mismo modo, la reciente Directiva 2024/2853 del Parlamento Europeo y del Consejo, de 23 de octubre de 2024, sobre responsabilidad por productos defectuosos, incluidos el software y la inteligencia artificial, ofrece otro camino prometedor. Un algoritmo o plataforma digital puede considerarse un “producto”. Si su diseño intrínseco causa daños comprobados (como adicciones y problemas de salud mental), podría catalogarse como “defectuoso”, generando responsabilidad civil directa a su desarrollador.
Procesos penales, en los casos más graves
El diseño algorítmico que intencionadamente y con conocimiento de sus efectos provoca un grave deterioro de la salud mental de una persona, especialmente si es vulnerable siendo menor de edad, podría analizarse a través del prisma de los delitos que atentan contra la integridad moral (artículos 173 a 177 del Código Penal español).
Lo que se necesita ahora es voluntad política y coraje para desafiar a estas empresas multinacionales a través de los tribunales. España y Europa no sólo pueden, sino que deben recordar que es posible.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

