Peligro señalado pero no informado: lo que la tragedia de Tumbler Ridge revela sobre el vacío de gobernanza de la IA en Canadá

REDACCION USA TODAY ESPAÑOL
8 Lectura mínima

Ocho meses antes del tiroteo masivo en Tumbler Ridge, OpenAI sabía que algo andaba mal. La cuenta ChatGPT de Jesse Van Rotselaar fue marcada por el sistema de revisión automatizada de la compañía por interacciones que involucran escenarios de violencia armada. Alrededor de una docena de empleados estaban al tanto. Algunos abogaron por contactar a la policía. En cambio, OpenAI prohibió la cuenta pero no la remitió a las autoridades porque no alcanzó el “umbral requerido” en ese momento.

El 10 de febrero, Van Rootselaar mató a ocho personas (su madre, su medio hermano de 11 años y otras seis personas en la escuela secundaria Tumbler Ridge) antes de morir a causa de una herida autoinfligida.

Este caso no se trata sólo del error de juicio de una empresa. Revela la ausencia de un marco legal canadiense para asignar responsabilidad cuando una empresa de inteligencia artificial posee información que podría prevenir la violencia.

Como investigador en ética de la salud y gobernanza de la IA en la Universidad Simon Fraser, estudio cómo los sistemas algorítmicos están remodelando la toma de decisiones en entornos de alto riesgo. La tragedia de Tumbler Ridge se encuentra precisamente en esta intersección: una corporación privada realizó una evaluación de riesgos de estilo clínico para la cual nunca estuvo equipada, en un entorno legal que no le dio ninguna orientación.

El sistema de revisión automatizado de OpenAI marcó la cuenta ChatGPT del tirador de Tumbler Ridge con meses de anticipación para interacciones que involucraran escenarios de violencia armada. Alrededor de una docena de empleados estaban al tanto. (Unsplash+/Solen Feiissa) El problema de la confesión digital

Los chatbots de IA generativa no son redes sociales. Las redes sociales funcionan como una plaza pública donde otros usuarios pueden seguir y etiquetar publicaciones. Las interacciones del chatbot son privadas, íntimas y están diseñadas para responder. Los usuarios habitualmente revelan miedos, fantasías e ideas violentas a sistemas diseñados para responder con la calidez de una conversación.

En la práctica clínica, este tipo de divulgación genera un deber bien establecido. El principio Tarasov, adoptado en las provincias canadienses a través de leyes de salud mental, impone a los terapeutas el deber de advertir si determinan que un paciente representa una amenaza creíble para una persona identificable, incluso si eso significa violar la confidencialidad. Pero ese deber depende del juicio clínico de profesionales capacitados que comprendan la diferencia entre una idea y una intención.

Es probable que OpenAI intentara reflejar este estándar clínico. Pero las personas que realizan estas evaluaciones son ingenieros de software y moderadores de contenido, no psicólogos forenses. La propia empresa reconoció la tensión, citando el riesgo de una “aplicación excesiva” y la ansiedad por las visitas policiales no anunciadas de jóvenes.

La verdadera pregunta no es si el razonamiento de OpenAI puede defenderse de forma aislada. ¿Debería incluso una corporación privada tomar esta decisión?

Un vacío donde debería estar la legislación

El ministro federal de IA, Evan Solomon, que tiene intención de reunirse con representantes de OpenAI hoy, 24 de febrero, para tratar la cuestión, dijo el 21 de febrero que estaba “profundamente perturbado” por las revelaciones, añadiendo que el gobierno federal estaba considerando “una serie de medidas” y que “todas las opciones están sobre la mesa”. Pero esas opciones siguen sin definir porque ya no existen herramientas legislativas que las permitan.

La Ley de Datos e Inteligencia Artificial, incluida en el Proyecto de Ley C-27, pretendía ser la respuesta de Canadá a la regulación de la IA. La Ley de Daños en Línea (Proyecto de Ley C-63) abordaría el contenido digital dañino. Ambos murieron bajo orden judicial cuando se prorrogó el Parlamento en enero de 2025.

Lo que queda es un código de conducta voluntario sin fuerza legal y sin consecuencias por su incumplimiento. Cuando OpenAI marcó la cuenta de Van Rootselaar, su único compromiso fue su política interna. La prohibición de la cuenta resolvió la responsabilidad de la empresa, mientras que la persona que expresaba ideas violentas quedaba excluida de cualquier vía de intervención.

Un hombre con traje oscuro habla en un gran espacio, mientras se ve a otras personas desde atrás.

Evan Solomon, Ministro de Inteligencia Artificial e Innovación Digital, analiza la interacción con OpenAI en relación con el uso de ChatGPT por parte del tirador en el tiroteo masivo de Tumbler Ridge, en el vestíbulo de la Cámara de los Comunes en la Colina del Parlamento en Ottawa, el 23 de febrero de 2026 (EL CANADIENSE Ta PRENG).

La ley de privacidad de Canadá exacerba el problema. La Ley de Protección de Datos Personales y Documentos Electrónicos contiene una excepción de emergencia: la sección 7 (3) (e) permite la divulgación sin consentimiento “a una persona que necesita la información debido a una emergencia que amenaza la vida, la salud o la seguridad de un individuo”. Pero esta disposición está hecha para crisis claras, no para los indicadores probabilísticos de amenaza generados por las interacciones de los chatbots de IA. Para una corporación extranjera que navega por esta ambigüedad, la incertidumbre favorece la inacción.

Lo que Canadá necesita ahora

El próximo intento de Canadá de lograr una gobernanza digital debe reconocer que las interacciones entre los humanos y la IA son fundamentalmente diferentes de las publicaciones en las redes sociales. Son necesarios tres elementos:

Una ley vinculante con umbrales legales claros sobre cuándo las empresas de IA deben informar a las autoridades de las interacciones señaladas. Estos umbrales deben desarrollarse con profesionales de la salud mental, autoridades policiales y expertos en privacidad, y no dejarse en manos de corporaciones individuales.

Comisión Independiente de Seguridad Digital como organismo de clasificación externo. Cuando una empresa de IA identifica interacciones de grave preocupación, debe remitir el caso a profesionales capacitados en evaluación de amenazas, en lugar de llamar internamente o desencadenar una respuesta policial armada inmediata.

Legislación de privacidad modernizada que proporciona claridad legal explícita para las divulgaciones específicas de IA, resolviendo la ambigüedad que actualmente recompensa la inacción.

En la Cumbre de Inteligencia Artificial celebrada en Nueva Delhi del 16 al 20 de febrero, 86 países, incluido Canadá, se comprometieron a promover una inteligencia artificial “segura, fiable y robusta”. No hubo compromisos concretos. Sam Altman, de OpenAI, enfatizó la urgencia de una regulación internacional de la IA y propuso un organismo internacional de estándares de seguridad de IA inspirado en la Agencia Internacional de Energía Atómica, una ironía que no pasó desapercibida para nadie después de las revelaciones de Tumbler Ridge.

El ministro Solomon dice que todas las opciones están sobre la mesa. Las familias de las víctimas del tiroteo, los sobrevivientes y la devastada comunidad de Tumbler Ridge están viviendo con el costo de dejar abiertas las opciones de regulación durante demasiado tiempo.


Descubre más desde USA Today

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA Today

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo