Tu hijo de 13 años escribe una descripción.
En 10 segundos tiene una imagen fotorrealista.
De cualquier cosa.
Incluyendo cosas que nunca debería generar.
Y también incluyendo cosas hermosas que nunca habría podido crear solo.
Las dos cosas son ciertas.
Las herramientas de IA generativa de imagen — como DALL-E (OpenAI), Midjourney, Stable Diffusion, Adobe Firefly y docenas de apps móviles — generan imágenes a partir de descripciones en texto en segundos.
En manos de un niño o adolescente, esa capacidad tiene dos caras que no pueden ignorarse. Esta guía las examina con honestidad: el potencial creativo es real, los riesgos también.
¿Qué pueden hacer los niños y adolescentes con IA generativa de imagen?
Las herramientas de IA generativa actuales son accesibles, gratuitas (en su versión básica) y extremadamente potentes. Un niño de 10 años puede generar ilustraciones para una historia que inventó. Un adolescente de 14 puede crear personajes para su universo de fanfic.
El potencial creativo es documentado. Adobe Firefly fue integrado en herramientas educativas precisamente porque democratiza el acceso a la creación visual — niños sin habilidades de dibujo técnico pueden externalizar sus ideas visuales.
La UNESCO señala en su informe de IA educativa (2023) que las herramientas generativas pueden estimular el pensamiento creativo cuando se usan como punto de partida, no de llegada: generar, evaluar, refinar, cuestionar.
La IA generativa no crea por tu hijo. Crea junto a quien le hace las preguntas correctas.
¿Cuáles son los peligros reales?
Los riesgos son específicos y documentados:
- Deepfakes de compañeros: la capacidad de generar imágenes realistas de personas reales ha derivado en casos documentados de deepfakes sexuales de compañeras de clase usando solo fotos de sus redes. En 2023, más de 40 estudiantes de una escuela en New Jersey fueron víctimas de deepfakes generados por compañeros con IA
- Contenido de violencia o gore: las herramientas con filtros débiles o eludibles pueden generar imágenes de violencia explícita
- Confusión sobre la realidad: niños menores de 8-9 años tienen dificultad para distinguir imágenes generadas de fotografías reales
- Plagio visual sin comprensión: generar imágenes para trabajos escolares sin entender el proceso creativo produce aprendizaje superficial
El deepfake de una compañera de 14 años
puede destruir su reputación en horas.
No es ciencia ficción.
Está pasando en colegios hoy.
Que tu hijo sepa que eso existe
— y las consecuencias que tiene —
es parte de educarlo para 2026.
¿Cómo distinguir el potencial del riesgo según la edad?
Mi hijo de 11 años genera ilustraciones para sus cuentos con DALL-E. Me parece increíble pero no sé si está bien.
Para un niño de 11 años usando DALL-E para ilustrar sus propias historias, el uso es creativo y no presenta riesgos significativos si el adulto está presente ocasionalmente. Los filtros de contenido de DALL-E son de los más sólidos del mercado.
Common Sense Media diferencia por madurez y plataforma:
- Para 8-12 años: DALL-E con cuenta educativa supervisada, Adobe Firefly — ambas con filtros robustos para contenido de adultos
- Para 13-16 años con supervisión: la mayoría de herramientas con filtros estándar, con conversación explícita sobre deepfakes y usos no éticos
- Herramientas sin restricciones (Stable Diffusion local, algunos Telegram bots): no apropiadas para menores
¿Cómo usar IA generativa de imagen con intención educativa?
Para convertir el uso en aprendizaje en vez de consumo pasivo:
- Pedile que describa lo que quiere antes de generarlo — el prompt es la habilidad real
- Comparad la imagen generada con referencias reales — ¿qué acertó la IA, qué inventó?
- Usala para ilustrar proyectos propios (cuentos, presentaciones) no para reemplazar el trabajo creativo
- Explicá qué es un deepfake antes de que lo descubra solo — con ejemplos reales de consecuencias reales
- Si genera imágenes de personas reales (amigos, familia): la conversación sobre consentimiento y privacidad es obligatoria
La regla de oro: IA generativa para amplificar ideas propias, no para sustituir el proceso de pensar.
Lo más importante
La IA generativa de imagen tiene potencial creativo real para niños y adolescentes. También tiene riesgos específicos — los deepfakes de compañeros son el más urgente — que requieren conversación proactiva.
Las herramientas con mejores filtros para menores son DALL-E y Adobe Firefly. Las herramientas sin restricciones no son apropiadas para menores.
El problema no es la IA. Es la IA sin el adulto que enseña a usarla con ética y criterio.
“Que tu hijo pueda generar imágenes fotorrealistas no significa que sepa qué hacer con ese poder.”
Entender lo que le pasa es el primer paso para ayudarlo.
Preguntas frecuentes
P:¿DALL-E es apropiado para niños?
R:DALL-E (de OpenAI) tiene políticas de contenido que bloquean imágenes de violencia, desnudos y contenido inapropiado. Para menores de 13 años, OpenAI requiere cuenta gestionada por adulto. Para 13-18, es una de las herramientas con mejores filtros del mercado si se usa desde la plataforma oficial.
P:¿Qué es un deepfake y cómo puedo explicárselo a mi hijo?
R:Un deepfake es una imagen o video generado por IA que muestra a una persona real haciendo o diciendo algo que nunca ocurrió. Para un adolescente: 'alguien puede tomar tu foto de Instagram y generar imágenes tuyas en situaciones que nunca existieron'. Eso ocurre. Ha pasado en colegios. Las consecuencias son devastadoras para quien lo sufre — y graves (legalmente) para quien lo genera.
P:¿Usar IA generativa en trabajos escolares es trampa?
R:Depende de si el trabajo pide el proceso creativo o el resultado. Usar IA para generar la ilustración de portada de un trabajo escrito sobre un tema que el alumno investigó es diferente a generar con IA toda la presentación sin entender el contenido. Muchos docentes ya distinguen los dos casos. La conversación en el aula sobre usos éticos es cada vez más necesaria.
P:¿La IA generativa de imagen puede 'matar' la creatividad de los niños?
R:No si se usa bien. La investigación sobre herramientas creativas asistidas por IA indica que la creatividad se ve estimulada cuando la herramienta amplifica ideas propias, no cuando las sustituye. El riesgo es usar la herramienta como atajo, no como amplificador. Eso lo determina cómo el adulto enmarque el uso.
P:¿Stable Diffusion es seguro para adolescentes?
R:No sin supervisión. Stable Diffusion en su versión local (instalada en computadora) no tiene filtros de contenido activos por defecto y puede generar imágenes sin restricciones. Es la herramienta que más se usa para generar deepfakes. No está recomendada para menores sin supervisión técnica específica.

¿Necesitás ayuda personalizada?
Lic. Julieta Dorgambide · Psicopedagoga y Directora Clínica de Educa Chubi
Ver servicios