Cada año, más de 300 millones de niños y adolescentes, aproximadamente uno de cada doce niños de todo el planeta, sufre de explotación o abuso sexual en Internet. En el caso español, los datos no son mejores. De hecho, la investigación científica sugiere que este es un problema que afecta entre el 10 y el 20% de los menores en España. El número de casos es alto y la policía tiene herramientas insuficientes que todos pueden explorarlos.
La legislación existente permite a los investigadores monitorear fuentes digitales abiertas, incluidas las redes sociales, identificar signos relevantes de delitos). También reconoce que en la investigación en la investigación de la evidencia obtenida a las personas, como el registro del chat que pueden contribuir a las víctimas de la red de enfermería (acoso sexual de menores a través de redes).
La inteligencia artificial (IA) permite a la policía analizar grandes cantidades de datos por segundo, revela muestras sospechosas y localiza posibles criminales más rápido. También facilita una revisión de miles de archivos en investigaciones complejas. Sin IA, este trabajo sería casi imposible. Sin embargo, su uso aumenta el dilema: ¿en qué medida pueden intervenir estas herramientas sin violar los derechos básicos como la privacidad?
De hecho, el uso de IA en España no es de hecho nuevo. La policía lo usa, por ejemplo, para analizar el riesgo de reincidencia en casos de violencia de género.
Cuando AI crítica y pregunta fotos
En algunos países, aunque no en España, las herramientas con IA se utilizan para implementar crímenes sexuales contra menores en Internet. Algunas conversaciones sobre revisión y prioridades para quejas, y otras buscan imágenes ilegales en la web. En todos los casos, su objetivo es facilitar el trabajo policial.
La clave para la discusión es determinar si el uso de IA está en la investigación del delito policial, especialmente en casos de enfermería, corresponde a la legalidad. Hasta hace poco, las regulaciones eran fragmentarias y ofrecían varias garantías sobre el uso de estas tecnologías.
En 2016, se ha aprobado la Directiva Europea que prohíbe la decisión legal solo sobre el análisis de datos automáticos. Después de eso, el Parlamento Europeo es 2021. Permitió el uso de IA, aunque con restricciones. Entre ellos, esos algoritmos deben ser transparentes, comprensibles y verificados. Y, sobre todo, que las decisiones finales tenían que tomar, no las máquinas.
La regulación europea sobre IA ha sido aprobada recientemente desde 2024, lo que permite el uso de estas herramientas en la justicia penal. Sin embargo, la regulación califica su alto riesgo. Esto implica que, entre otras solicitudes, estas herramientas deben ser personas seguras, transparentes y monitoreadas. Por su parte, no hay estándares especiales sobre el uso de IA en España, de modo que el marco regulatorio europeo es europeo.
Dado este panorama, el estado español debe usar el marco legal para el desarrollo de herramientas que facilitan la investigación de delitos sexuales contra menores en la red. Por ejemplo, para el filtrado y las prioridades con un gran alcance de casos que llegan en manos de la policía española. Es difícil reconocer el uso de chatbots que los hicieron pasar por menores, como posibles víctimas, para “cazar” a los agresores sexuales. Está explícitamente prohibido por la legislación española.
Sin embargo, los expertos advirtieron sobre problemas que representan el uso de IA en un campo criminal. Aunque es capaz de detectar formas, no es infalible. Un algoritmo mal diseñado podría crear posiciones positivas falsas positivas, señalando a los usuarios que no cometieron crímenes como sospechosos.
Análisis de fenómenos previos
Para evitar estas y otras herramientas basadas en algoritmos o IA, es muy importante realizar el análisis previo del fenómeno de los delitos sexuales en línea. Además, los sistemas deben alimentarse para obtener datos completos para garantizar que sus resultados excedan esos análisis humanos.
Si se tiene en cuenta anterior, la IA de implementación puede ofrecer la oportunidad de reconocer y corregir estos sesgos. De hecho, los prejuicios atribuidos ai provienen de los datos que son alimentados por personas.
Por lo tanto, el estado español debe monitorear la implementación de estas herramientas con un marco legal sólido que proteja los derechos básicos. También es crucial comprender que la IA debe complementar el trabajo humano, proporcionando un análisis e información para obtener más información y una toma de decisiones con mayor precisión.
En resumen, y puede transformar significativamente la gestión de los casos policiales de enfermería. Sin embargo, debe usarse de manera completa, con una comprensión clara de sus limitaciones y riesgos para fortalecer el papel de los agentes de la justicia.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.