Mi cuerpo, mi foto, mi elección: cómo identificar y comportarse antes del sexo

Periodista ANASTACIO ALEGRIA
11 Lectura mínima

Carlos está en un grupo de telegrama con sus conferencias. Comenzaron a compartir videos. En uno de ellos, Carlos parece comentarios racistas abiertos. De hecho, eso nunca sucedió.

Clara, también un nombre ficticio, llegó a él en el que WhatsApp Group es una foto de sus senos. Como en el caso de Carlos, la situación que se muestra en la figura nunca llegó.

Los dos fueron víctimas del cambio digital de sus imágenes, pero hay una gran diferencia entre los dos: contenido sexual. Y eso tiene un nombre: se llama violencia sexual.

La inteligencia artificial (IA) permaneció, y esto podría notarse en varias formas de vida digital actuales. Entre sus múltiples aplicaciones se encuentran el uso malicioso, como la creación o los cambios invisibles en las imágenes, muchas veces con fines sexuales. Esta práctica, conocida como Sexual Deepfake, es una forma de violencia proporcionada por la tecnología.

En varios estudios, algunos proyectos de investigación completados, algunos completados, identificaron la obvia ambivalencia en los resultados. Por un lado, los datos como los recopilados en FAD muestran que los niños jóvenes (entre 16 y 29 años) residentes en España tienen tasas de victimización más altas debido a cambios de imagen digital a través de niñas que niñas de la misma edad. Y que son perpetradores. De hombre a hombre. Sin embargo, nuestra operación etnográfica en plataformas digitales como un telegrama revela un patrón diferente, en el que las mujeres aparecen como las principales víctimas de estos ataques. Todavía no tenemos una explicación para esta divergencia, que todavía investigamos.

Apropiación de cuerpos femeninos extranjeros

Estas imágenes sexuales modificadas son un reflejo de una cultura que permite y normaliza la apropiación de los cuerpos extraños, especialmente las mujeres. Cultura que promueve el lanzamiento, la falsificación y la propagación de imágenes íntimas como si estuvieran en un dominio público.

En el escenario de estos abusos, la IA, el consentimiento desaparece y la dinámica profundamente misógina, alentada por la violencia 3.0 que legitima la violencia contra las mujeres y las niñas. Además, no es el problema exclusivo del cambio de imagen.

Lo que está en la base es la “economía desnuda (desnuda)” basada en la explotación de cuerpos extranjeros sin consentimiento. Las plataformas como los telegramas se producen con la creación y el transporte de este contenido, facilitando y aumentando las agresiones. Hay aplicaciones y bots que están diseñados exclusivamente para “quitar a todas las chicas que quieras” o “crear una chica de tus sueños”, anunció abiertamente de esta manera.

Durante varios años, el interés social y político ha aumentado para regular el abuso basado en imágenes de IA manipulada. La Unión Europea requiere transparencia en el contenido generado o cambiado por esta tecnología a través de su ley artificial sobre servicios de inteligencia.

Además, España es un país pionero en este tema. En marzo de 2025. Aprobó el proyecto de ley para reformar la ley penal y regula la creación y expansión de siglos falsos o contenido sexual.

El problema también es luchar contra la sociedad civil. Campañas internacionales como su pornografía y mi imagen, mi elección lucha que este fenómeno se reconoce como agresiones que proporcionan tecnología y no como material pornográfico o de entretenimiento. En España, una fundación social de iniciativa o iniciativa feminista, los precursores feministas están en los campos de la violencia de género, y de los cuales facilitó la tecnología.

Por otro lado, aunque es común leer o escuchar contenido sexual alterado como “pornografía”, estas imágenes no deben marcarse de esta manera. Las imágenes sexuales de Deepfake son pruebas de que se cometió el abuso sexual en el que las imágenes de una persona fueron robadas, decoradas y cubiertas de tecnología y que causa daños reales a las víctimas.

Al mismo tiempo, esta diferencia no excluye la posibilidad de imaginar porno no de vida, feminista y ética sobre la base de imágenes ficticias, pero es otro debate.

¿Qué se puede hacer con las instituciones de investigación?

En trabajos anteriores, tuvimos la oportunidad de consultar con expertos nacionales e internacionales sobre cómo lidiar con la tecnología facilitada de la violencia sexual, incluidos los profundos sexuales. Y todos están de acuerdo con algo que es lo básico: la tecnología no es neutral. Se diseñan y usa muchas veces y se usa específicamente para violar mujeres, niñas y grupos vulnerables, también obteniendo beneficios económicos de estos agresiones.

Los expertos propusieron las líneas de intervenciones de violencia tecnológica considerando un enfoque integral y multicapa para el programa político-institucional, financiando y continuando su espacio para comprender su naturaleza y daño y daño en la educación y la sensibilización para la prevención. Esto incluye la enseñanza para preservar las pruebas agresivas sobre campañas y programas educativos para informar al público sobre el comportamiento digital seguro.

Además, nos dicen que necesitamos aumentar los recursos específicos para sus erradicaciones, organismos de capacitación, etc.), creando servicios de acompañamiento específicos para las víctimas, poner votos en el centro y servicios de diseño basados ​​en las necesidades de los procedimientos auditivos.

Haga algunas preguntas si ve Deepfake

Si encuentra una imagen sexual alterada en la que se modifica el cuerpo de otra persona, puede ser que sea antes del caso de la violencia sexual digital. Haga algunas de las siguientes preguntas y contacte a otras personas si sospecha que este podría ser el caso:

¿La persona que aparece dio permiso para usar sus fotos?

¿La imagen alterada muestra a una persona que dice o para los actos que buscan burlarse o dañar?

¿La persona que aparece en la imagen sabe que estos procedimientos están implementados? ¿Estás de acuerdo con ellos?

Cómo continuar y dónde estar encantado

Si cree que puede presenciar la agresión o el contenido ilegal, hay diferentes formas de tratar. Frente a sospecha, pregúntate e infórmese, no permita que pase.

Si conoce a la persona cuyo contenido se modifica, es mejor informar lo que le sucedió a su círculo.

Es muy importante escuchar y rastrear a las personas afectadas de acuerdo con sus necesidades, porque es posible que no todos quieran informar o procesar lo que sucedió. Si no sabe cómo continuar, puede contactar a los recursos que se presentan a continuación y con una línea para FUNEC, dónde ayudarlo y acompañarlo en el proceso.

La primera medida es el registro digital de la publicación o el mensaje contenido en la figura, en caso de que se haya decidido ser utilizado como evidencia (por ejemplo, usando Egagante).

También puede cambiar al canal de prioridad de la Agencia de Protección de Datos en español (AEPD). Se puede solicitar esta intermedia con plataformas digitales para eliminar el contenido común.

Además, puede comunicarse con teléfonos libres como la Oficina Nacional de Cyber-Cycreiting de 017 o el cuidado de la violencia de género 016.

Además de estas acciones, es muy importante monitorear y escuchar a la víctima y no culpar o mantener lo que sucedió, así como las cancelaciones de publicación en las redes sociales e informar a la plataforma.

Google Puede buscar Google para eliminar las imágenes en la siguiente forma.

Todas estas medidas pueden contribuir a mitigar el daño que ya no es una agresión de testigos, porque ve lo que sucede y no funciona es la forma de reproducir la violencia.

Trabajar en la promoción del flujo y el proceso de negatividad es crucial para desactivar la cultura patriarcal que apoya estos abusos, así como facilitar la creación de espacios horizontales donde los atacaron y siguieron.

Porque la atención sexual creada sin consentimiento no es una broma. Llamémoslo llamado: no es pornografía, es violencia sexual. El respeto por el cuerpo y la autonomía de las personas implica rechazar la confiscación invisible de sus imágenes y sus cambios con fines perturbados.

Necesitamos trabajar en la construcción de la cultura digital basada en la dignidad, el respeto y el consentimiento, que reconoce nuestros cuerpos e imágenes. El derecho a decidir cómo queremos vernos, representar la parte que no negocia. Nos unimos a los movimientos activistas que conducen a la lucha contra las imágenes basadas en imágenes, y lo decimos alto y claramente: mi cuerpo, mi imagen, mi elección, mi elección.

Este artículo publicó anteriormente la Oficina para la Transferencia de Resultados de Investigación (OTRI) que cumplió con la Universidad de Madrid (UCM).


Descubre más desde USA Today

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA Today

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo