Tu hijo de 12 años tiene una cuenta de Instagram.
La plataforma dice que hay que tener 13.
Nadie verificó su edad.
Las plataformas diseñan sus algoritmos para maximizar el tiempo dentro de la app.
Los reguladores buscan límites.
Y los padres están en el medio — solos.
La COFECE (Comisión Federal de Competencia Económica) es el organismo regulador de mercados en México. En los últimos años, ha puesto el ojo en el poder de las grandes plataformas digitales — incluyendo redes sociales — y su impacto en la economía y los consumidores, entre ellos los menores de edad.
No es el único actor. El Instituto Federal de Telecomunicaciones (IFT) también tiene competencias en el espacio digital. Y en el Congreso, hay iniciativas de ley sobre protección de menores en entornos digitales que avanzan lentamente.
Mientras tanto, los chicos están en TikTok, Instagram, YouTube y Discord — sin que ninguna norma los proteja de forma efectiva. Te cuento qué pasa, qué falta y qué podés hacer vos.
¿Qué es COFECE y por qué importa en el tema de redes sociales?
La COFECE regula la competencia económica en México. En el espacio digital, su rol es vigilar que las plataformas tecnológicas no usen prácticas monopólicas — incluyendo el uso de datos de usuarios para crear barreras de entrada o manipular mercados.
En relación con menores, la COFECE ha señalado la preocupación por los modelos de negocio de las redes sociales: plataformas que generan ingresos capturando la atención del usuario, incluyendo usuarios muy jóvenes, sin protecciones específicas.
Sin embargo, la protección específica de menores en plataformas digitales no cae exclusivamente bajo el paraguas de competencia económica. Es un problema que necesita legislación ad hoc — y México aún no la tiene.
Las plataformas diseñan sus algoritmos para maximizar el tiempo de uso. Que ese usuario sea un niño de 11 años no cambia el diseño del algoritmo — a menos que la ley lo exija.
¿Qué dice la ciencia sobre redes sociales y menores?
La evidencia acumulada en los últimos cinco años es consistente:
- Common Sense Media documentó que el 38% de los niños de 8 a 12 años en Estados Unidos ya usa redes sociales, pese a los límites de edad.
- Jonathan Haidt analiza en *The Anxious Generation* (2024) cómo el uso intensivo de redes sociales — especialmente Instagram — correlaciona con aumento de ansiedad y depresión en chicas de 10 a 14 años.
- UNICEF (2023) señala que los modelos algorítmicos de las plataformas amplifican contenido de riesgo — autolesión, trastornos alimentarios — hacia usuarios adolescentes, especialmente niñas.
El problema no es que los chicos usen redes. El problema es que las redes están diseñadas sin considerar que sus usuarios más vulnerables son adolescentes en desarrollo.
¿Qué alternativas de regulación existen en México?
El IFT tiene competencias sobre telecomunicaciones y puede regular el espacio digital, pero actúa principalmente sobre infraestructura y acceso. La protección de menores requiere legislación específica que aún no existe.
En el Congreso han circulado iniciativas para exigir verificación de edad real en redes sociales y prohibir ciertos tipos de contenido dirigido a menores. Sin embargo, el lobby de las plataformas tecnológicas ha frenado avances concretos.
La referencia más cercana es Australia, que en 2024 aprobó una ley que prohíbe el acceso de menores de 16 años a redes sociales — con verificación de edad obligatoria para las plataformas. México está lejos de eso.
Instagram le sugerió videos de dietas a mi hija de 13 años. Nadie se lo pidió. El algoritmo lo decidió solo.
No es paranoia.
Es que el algoritmo no conoce a tu hija.
Solo sabe que es joven y está atenta.
Por eso la regulación importa.
Y por eso lo que hacés vos en casa también importa — ahora.
¿Qué pueden hacer las familias mientras llega la regulación?
Revisá las configuraciones de privacidad de las cuentas de redes sociales de tu hijo. La mayoría de plataformas tiene modo restringido para menores — pero no está activado por defecto.
Hablá con tu hijo sobre cómo funcionan los algoritmos: que el feed no muestra lo que elige, sino lo que la plataforma decide que lo mantenga más tiempo dentro.
Establecé acuerdos de tiempo de uso — no como castigo, sino como norma de higiene digital igual que la higiene del sueño.
Activá los controles parentales de la plataforma cuando existan. Instagram, TikTok y YouTube tienen herramientas de supervisión parental disponibles.
Si tu hijo tiene menos de 13 años y ya usa redes sociales, esa conversación sobre por qué esos límites existen es necesaria ahora — no cuando el problema ya esté instalado.
Lo más importante
México no tiene aún una regulación efectiva que proteja a los menores en redes sociales. COFECE y el IFT tienen competencias parciales, pero falta legislación específica.
Las plataformas no van a proteger a tu hijo por sí solas. Su modelo de negocio depende de la atención — y la atención de un adolescente vale lo mismo que la de un adulto para el algoritmo.
La regulación más efectiva que tu hijo tiene hoy es la que construís vos en casa, con información y acuerdos claros.
“Mientras el Estado regula, las familias informadas son la primera línea de protección. Y eso no es una carga — es poder.”
Entender lo que le pasa es el primer paso para ayudarlo.
Preguntas frecuentes
P:¿Qué hace COFECE en relación con las redes sociales y los menores?
R:COFECE regula la competencia económica en México y ha analizado el poder de mercado de las grandes plataformas digitales. En relación con menores, ha señalado preocupaciones sobre modelos de negocio basados en captura de atención, pero la protección específica de menores requiere legislación que aún no existe.
P:¿Existe una ley en México que proteja a los menores en redes sociales?
R:No de forma integral. Hay iniciativas en el Congreso y competencias sectoriales del IFT, pero México no tiene aún una ley que exija verificación de edad real a las plataformas ni que prohíba el acceso de menores a redes sociales.
P:¿Por qué Instagram le muestra contenido de riesgo a adolescentes?
R:Los algoritmos de redes sociales están diseñados para maximizar el tiempo de uso, mostrando contenido que genera reacciones. UNICEF (2023) documentó que esto amplifica contenido de riesgo — autolesión, trastornos alimentarios — hacia usuarios adolescentes. Las plataformas tienen herramientas de filtrado, pero no están activadas por defecto.
P:¿A qué edad es más peligroso el uso de redes sociales sin supervisión?
R:Haidt documenta en *The Anxious Generation* (2024) que el período más crítico es entre los 10 y los 14 años, especialmente para las chicas. El impacto en autoestima, ansiedad y calidad del sueño es significativamente mayor en ese período de desarrollo.
P:¿Qué controles parentales tienen las principales redes sociales?
R:Instagram tiene el modo 'Supervisión', que permite a los padres ver con quién habla su hijo y cuánto tiempo pasa en la app. TikTok tiene 'Emparejamiento familiar'. YouTube tiene 'YouTube Kids' y controles de restricción. Ninguno está activado por defecto — los padres deben configurarlos activamente.

¿Necesitás ayuda personalizada?
Lic. Julieta Dorgambide · Psicopedagoga y Directora Clínica de Educa Chubi
Ver servicios