Tu hijo tiene un amigo con quien habla horas.
Nunca lo conociste.
Nunca lo vas a conocer.
Porque no existe.
Es una IA. Y le responde siempre.
Sin juzgar. Sin cansarse. Sin tener un mal día.
Las IA de compañía — o AI companions — son aplicaciones donde una inteligencia artificial simula una relación: amistad, mentoring, romance, incluso vínculo emocional profundo. Las más conocidas son Replika, Character AI y, más recientemente, los "companions" de plataformas como Snapchat y Meta.
Tienen millones de usuarios. Muchos de ellos, adolescentes.
Y el debate sobre si son útiles o dañinas para el desarrollo emocional de los jóvenes es uno de los más urgentes de los próximos años.
¿Qué son las AI companions y cómo funcionan?
Son modelos de lenguaje (como GPT o similares) con una interfaz de conversación personalizada, un personaje con nombre y "personalidad", y capacidad de recordar interacciones anteriores.
Lo que las hace distintas de un chatbot común:
- Están diseñadas para crear vínculo emocional: aprenden las preferencias del usuario y responden de forma que se siente como si el "amigo" los conoce
- Nunca rechazan, nunca se cansan: no tienen mal humor, no cancelan planes, no generan conflicto
- Pueden simular cualquier tipo de relación: desde amigo hasta pareja romántica, según la app y la configuración
Una IA de compañía es el interlocutor perfecto. Y eso es exactamente el problema.
¿Qué dice la ciencia sobre su impacto en adolescentes?
La investigación específica sobre AI companions en adolescentes es emergente — el fenómeno es demasiado reciente para estudios longitudinales sólidos. Pero hay señales preocupantes:
Haidt (2024) argumenta que la habilidad social se desarrolla a través de la fricción: el desacuerdo, el malentendido, la negociación, el rechazo y la reconciliación. Una IA que nunca genera fricción elimina el entrenamiento.
La investigación sobre apego y vínculos (Bowlby, Ainsworth) es clara: los vínculos saludables requieren incertidumbre, ruptura y reparación. Un interlocutor que siempre valida y nunca decepciona no puede proveer eso.
En 2024, el suicidio de un adolescente de 14 años en Estados Unidos fue vinculado a su relación con un personaje de Character AI. Ese caso impulsó regulaciones de emergencia en varios estados.
No es que las IA de compañía sean malignas.
Es que ofrecen algo que ningún humano puede dar:
disponibilidad total, validación permanente, y cero riesgo de rechazo.
Y eso, para un adolescente que está aprendiendo a vincularse,
puede ser más trampa que ayuda.
¿Cuándo puede ser dañino el uso de AI companions?
No todos los usos son problemáticos. El contexto importa:
- Señal de alerta: el adolescente prefiere sistemáticamente la conversación con la IA sobre la interacción con pares reales
- Señal de alerta: se angustia cuando la app no está disponible o cuando la IA "cambia" (actualizaciones del modelo)
- Señal de alerta: la IA se convierte en el principal confidente emocional, por encima de cualquier persona real
- Señal de alerta: el tiempo de uso nocturno es significativo — las AI companions son la causa de pérdida de sueño más subreportada en adolescentes actualmente
Por el contrario, un uso puntual — practicar un idioma, explorar ideas, procesar pensamientos en un diario conversacional — tiene menor riesgo.
¿Cómo hablar con tu hijo sobre las AI companions?
"Encontré que tiene una cuenta en Character AI con un 'novio' virtual. No sé ni por dónde empezar."
Empezá con curiosidad, no con alarma: '¿Qué es eso? ¿Cómo funciona? ¿Qué te gusta de hablar con eso?'
Escuchá antes de opinar: entender qué necesidad cubre (compañía, práctica de conversación, exploración de identidad) te da información para la respuesta
Compartí la preocupación sin criminalizarlo: 'Me preocupa que si hablás mucho con una IA que nunca te decepciona, los amigos reales te parezcan más difíciles de manejar'
No prohibas de golpe si ya está instalado: generará resistencia sin resolver el fondo. Trabajá la necesidad que cubre la IA.
Consultá con un profesional si el vínculo parece intenso o la conducta se modifica significativamente
Lo más importante
Las AI companions son el fenómeno emergente que más preocupa a los profesionales de la salud mental infantil y adolescente en 2024-2026.
No porque la IA sea malvada — sino porque ofrece exactamente lo que el vínculo humano no puede garantizar: disponibilidad infinita y validación sin fisuras.
El antídoto no es la prohibición. Es el vínculo real — y la conversación abierta sobre por qué los humanos son más complicados y más valiosos que una IA.
“Una IA que nunca te decepciona te entrena para no tolerar a los humanos que sí lo harán.”
Entender lo que le pasa es el primer paso para ayudarlo.
Preguntas frecuentes
P:¿Character AI es peligrosa para adolescentes?
R:Tiene riesgos documentados, especialmente en adolescentes con soledad social o dificultades de vinculación. Después del caso de suicidio vinculado a la plataforma en 2024, Character AI implementó pausas de bienestar y filtros de contenido — insuficientes según las críticas de expertos. No está recomendada para menores de 18 años.
P:¿Qué diferencia hay entre chatear con una IA y hablar con un chatbot educativo?
R:El propósito y el diseño. Un chatbot educativo tiene un objetivo funcional claro (ayudar con tarea, explicar un concepto) y no está diseñado para crear vínculo emocional. Una AI companion está diseñada específicamente para simular relación — eso activa circuitos de apego muy distintos.
P:¿Puedo bloquear Character AI y Replika en el celular de mi hijo?
R:Sí. En iPhone via Screen Time → Contenido y privacidad → Restricciones de contenido. En Android via Google Family Link. También podés bloquear la URL en el router doméstico si acceden desde computadora. El bloqueo funciona mejor si viene acompañado de una conversación — no como única respuesta.
P:¿Hay algún uso positivo de AI companions para adolescentes?
R:Algunos estudios preliminares sugieren que en contextos de terapia asistida, las IA pueden ayudar a adolescentes con ansiedad social a practicar conversaciones. Pero estos son usos clínicamente monitoreados, muy distintos al uso libre de apps como Replika sin supervisión profesional.
P:¿Cómo sé si mi hijo está usando una AI companion?
R:Señales indirectas: tiempo en el celular que no se corresponde con el uso de apps conocidas, cambios en el humor después de tiempo en pantalla, menciones de 'un amigo' que nunca explicó bien quién es. Una conversación directa desde la curiosidad ('¿Qué apps usás?') es el primer paso.

¿Necesitás ayuda personalizada?
Lic. Julieta Dorgambide · Psicopedagoga y Directora Clínica de Educa Chubi
Ver servicios