Cuando revisé los mensajes de TikTok de mi hija de diez años a principios de febrero de 2026, esperaba encontrar la combinación habitual de desafíos de baile, bromas escolares y clips de anime. En cambio, vi al extraño preguntarle: “¿Te gustan los niños?”. Ella respondió al extraño: “No soy un MAP”.
Nunca antes había escuchado ese término. Cuando le pregunté qué significaba “MAP”, ella simplemente respondió que era menor de edad. En ese momento, me di cuenta de algo inquietante pero importante: los niños encuentran lenguaje codificado en línea mucho antes de que muchos padres sepan que existe.
¿Por qué escribo sobre esto?
En mi investigación más amplia sobre los daños en línea a niños y adolescentes, investigo cómo el diseño y la gestión de sitios web y aplicaciones afectan los resultados de seguridad en el mundo real.
Mi próxima investigación explora cómo las plataformas de redes sociales, las aplicaciones de mensajería y las comunidades de juegos tienen éxito y fracasan a la hora de proteger a los jóvenes de intentos de captación, contactos no deseados y otras formas de explotación en línea.
Por eso la reacción de mi hija me detuvo en seco.
A pesar de meses de investigación sobre cómo las principales plataformas digitales como TikTok, Instagram y YouTube dan forma a la seguridad en línea, nunca me había encontrado con el término MAP. Sin embargo, después de solo dos meses de chatear en TikTok, lo hizo.
Condiciones que los padres deben conocer
MAP es un término que aparece en cierta literatura académica relacionada con las políticas de protección infantil y prevención de la explotación sexual, así como en espacios en línea como foros, comunidades de Reddit y grupos de redes sociales. Pero muchos padres y tutores siguen sin saberlo.
Las organizaciones de verificación de datos como Snopes han abordado repetidamente el término MAP debido a la frecuencia con la que aparece sin explicación.
MAP existe dentro de un ecosistema más amplio de eufemismos y referencias codificadas. Ser capaz de reconocer estos términos a tiempo puede ayudar a los padres a identificar interacciones potencialmente peligrosas y comprender cuándo alguien en línea puede estar intentando enmascarar una intención dañina. El conocimiento de este lenguaje les da a los adultos una idea más clara de cuándo intervenir y apoyar la seguridad de sus hijos en las redes sociales.
Los padres y sus hijos pueden ver o escuchar estos términos en aplicaciones y sitios populares como TikTok, YouTube, Instagram, Discord y Reddit. Estos términos incluyen:
• NOMAP/MAP no ofensivo y MAP anticontacto: Etiquetas utilizadas por personas que se identifican como menores de edad atraídos y afirman que no tienen ningún efecto en su atracción hacia los niños, pero aún así buscan legitimidad o comunidad.
• 764, o 7 6 4: un código numérico utilizado en ciertos foros, incluidos hilos especializados de Reddit y foros de mensajes especializados, para señalar un atractivo para menores sin utilizar lenguaje explícito.
• Edad de atracción, o AOA: término utilizado por los MAP para transmitir sus preferencias de edad, generalmente a partir de los 11 años.
• Contacto sexual adulto-menor, o AMSC: un término utilizado por personas que creen que los niños deben tener autonomía sexual y ser capaces de decidir si quieren tener actividad sexual con un adulto, una opinión ampliamente rechazada por los expertos en protección infantil.
• Amigo Adulto y Amigo Joven, o AF/IF: Identifica a las personas que están en relaciones MAP.
Uno de cada cinco adolescentes dice estar en plataformas de redes sociales como TikTok casi constantemente. Spencer Platt/Getty Images Por qué los niños encuentran este idioma por primera vez
Los niños y adolescentes pasan una cantidad considerable de tiempo en línea. Una encuesta del Pew Research Center de 2025 encontró que aproximadamente 1 de cada 5 adolescentes estadounidenses dice estar en plataformas como TikTok y YouTube casi constantemente, con YouTube, TikTok, Instagram y Snapchat entre las plataformas más utilizadas.
Los jóvenes son notablemente buenos para encontrar significado a partir del contexto. Se dan cuenta del tono, la repetición y cómo reaccionan los demás. Puede que no entiendan completamente de dónde viene un término, pero entienden cómo funciona en la sociedad, es decir, qué señala, cuándo es una broma y cuándo es una advertencia.
Periodistas y lingüistas describen este fenómeno como algohabla: lenguaje moldeado por moderación algorítmica en lugar de claridad o transparencia.
Por el contrario, los adultos suelen encontrarse con estos conceptos sólo después de que ha sucedido algo alarmante. Para entonces, es posible que los niños ya sientan que el lenguaje está normalizado.
Cómo las interacciones dañinas pasan por la moderación
La mayoría de las principales plataformas de redes sociales dependen en gran medida de sistemas de moderación automatizados. Estos sistemas son eficaces para capturar palabras explícitas o frases preetiquetadas.
Las investigaciones y los informes muestran que cuando la moderación va a la zaga de la terminología en evolución, las interacciones dañinas (especialmente aquellas que involucran a adultos que inician contacto con niños o adolescentes) a menudo siguen una progresión predecible:
El primer paso implica que las personas utilicen eufemismos en lugar de términos explícitos. Es menos probable que “MAP” active la moderación o sea marcado para su eliminación que la palabra “pedófilo” a la que a menudo reemplaza.
La gente también suele utilizar números o emoticones para transmitir su significado de forma indirecta. Códigos como “764” o ciertas combinaciones de emojis pueden indicar significado sin usar palabras reconocibles.
Algunas personas incorporan los términos en memes, chistes o comentarios irónicos. Esto hace que el lenguaje dañino parezca inofensivo o divertido.
Otras personas usan camuflaje estético, es decir, avatares de anime, combinaciones de colores pastel o nombres de usuario lindos para parecer inofensivos o amigables para los jóvenes.
Los adultos también pueden trasladar conversaciones a mensajes privados. El primer contacto suele ocurrir en comentarios públicos, pero la conversación real pasa a mensajes directos privados o DM.
Finalmente, otra señal de advertencia es cuando las personas en línea crean cuentas de respaldo. Cuando se marca una cuenta, aparece otra rápidamente.
Educación proactiva para padres
La mayoría de los consejos de seguridad en línea son reactivos: se anima a los adultos a responder después de que surge un término o después de que un niño se siente incómodo.
Las investigaciones muestran cada vez más que la protección eficaz suele comenzar antes, cuando los padres ayudan a los niños a comprender cómo funciona el entorno digital. Los estudios sobre alfabetización digital juvenil sugieren que los niños se benefician al comprender que los algoritmos recompensan la atención, la repetición y el compromiso en lugar de la seguridad.
Saber que la aplicación cree que te gusta algo si te detienes y la miras ayuda a los usuarios jóvenes a ver el contenido como algo que se les ofrece, en lugar de algo que ellos pidieron.
Algunas familias introducen conversaciones generales sobre el lenguaje codificado al final de la escuela primaria o al comienzo de la escuela secundaria. Discutir por qué la gente usa eufemismos en línea prepara a los niños para detenerse y hacer preguntas cuando surgen términos desconocidos. La investigación sobre la mediación parental también encuentra que las respuestas practicadas ayudan a los niños a desconectarse de interacciones desagradables. Guiones simples como “No quiero hablar de eso”, “Te estoy bloqueando” o “Me cerraré la sesión ahora” pueden ayudar a reducir las dudas.
Los padres que pasan tiempo con sus hijos interactuando con otros en aplicaciones y sitios web (no para controlarlos, sino para interpretar lo que ven) también pueden ayudar a los niños y adolescentes a aprender a analizar el comportamiento digital de la misma manera que analizan la presión de grupo fuera de línea.
Los estudios también muestran que los niños y adolescentes que entienden que no deben amabilidad, detalles personales o mantener una conversación con extraños son menos susceptibles a la manipulación.
La concientización, no la alarma, es una herramienta poderosa para las familias que navegan por espacios en línea donde el lenguaje y las intenciones dañinos a menudo están ocultos a plena vista. Cuando los adultos se mantienen comprometidos y proactivos, los niños están mejor preparados para reconocer cuando algo anda mal y hablar de ello con personas en las que confían.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

