Tu hijo te llama.
Llorando.
Dice que está secuestrado.
Necesita que depositás plata ahora.
La voz es la de tu hijo.
El timbre, el acento, los errores.
Pero no es tu hijo.
La clonación de voz con inteligencia artificial pasó de ser ciencia ficción a una herramienta de estafa accesible en 2023-2024. Con 3-30 segundos de audio de una persona — un video de TikTok, una historia de Instagram, un audio de WhatsApp — un sistema de IA puede replicar esa voz con precisión suficiente para engañar a un familiar.
Las familias con niños y adolescentes son el target más frecuente. Esta guía explica cómo funciona, qué riesgo real hay, y cómo protegerse.
¿Cómo funciona la clonación de voz con IA?
Los sistemas actuales de clonación de voz (ElevenLabs, tecnologías similares) necesitan entre 3 y 30 segundos de audio para crear un modelo de voz. Ese modelo puede luego generar cualquier texto con esa voz.
El audio fuente puede extraerse de contenido público: videos de TikTok o YouTube, historias de Instagram, videos en grupos de WhatsApp. Si tu hijo publica contenido en redes sociales con su voz, ese audio es técnicamente accesible.
El proceso completo — obtener el audio, clonar la voz, generar la llamada de emergencia falsa — puede hacerse en minutos y no requiere conocimiento técnico avanzado.
Tres segundos de la voz de tu hijo en TikTok son suficientes para falsificarla.
¿Qué estafas usan voces clonadas de niños y adolescentes?
El vishing de secuestro virtual es la más documentada: llaman a un padre o abuela con la voz del niño diciendo que está secuestrado y necesitan transferencia urgente. Según Pew Research (2023), el 52% de los adultos en Estados Unidos conoce a alguien que recibió una llamada de voz sintética.
Suplantación en grupos de amigos: clonar la voz de un niño para enviar mensajes de audio a sus amigos — pedidos de dinero, contenido, información personal.
Extorsión con voz sintética: 'Tenemos un audio tuyo diciendo X' — aunque el audio sea completamente generado.
Me llamaron con la voz exacta de mi hija diciendo que estaba en peligro. Tardé 20 minutos en entender que era falso. 20 minutos en los que estaba paralizada.
¿Cómo proteger a tu familia de las voces clonadas?
No hay protección técnica total. Pero sí hay protocolos que funcionan:
Crear una palabra de código familiar: un código secreto que ningún miembro de la familia diría en público. Si alguien llama diciendo ser tu hijo y no dice el código, algo está mal.
Verificación de emergencia: ante cualquier llamada de emergencia urgente, colgar y llamar directamente al número del hijo. Si no responde, llamar al último lugar donde debería estar.
Hablar con los hijos sobre el riesgo: que sepan que pueden existir llamadas falsas con su voz. No para asustar — para que sepan cómo actuar si sus amigos reciben algo raro.
Configurar cuentas de redes sociales como privadas: reduce el material de audio accesible públicamente.
No transferir dinero por emergencia sin verificación: la urgencia es el mecanismo de manipulación. Un segundo para verificar protege de 99% de las estafas.
No es paranoia.
Es entender que la tecnología que usa tu familia
también la pueden usar en tu contra.
Un protocolo de verificación acordado en familia
es cinco minutos de conversación que puede valer mucho.
¿Qué decirle a tus hijos sobre las voces clonadas?
La conversación con niños de 8-12 años:
'¿Sabés que hoy existe tecnología que puede copiar la voz de cualquier persona? Si vos grabás un video, alguien podría hacer que suene como si dijiste cosas que nunca dijiste. Por eso en casa tenemos un código secreto para las emergencias.'
Para adolescentes:
'Existe tecnología que puede clonar tu voz con segundos de audio. Si alguien recibe un mensaje de audio tuyo que no enviaste, que duden. Y si alguna vez llegás a recibir un audio de alguien que conocés con algo raro, verificá antes de reaccionar.'
La conversación no tiene que ser alarmista. Tiene que ser informativa. Como cuando les enseñaste a cruzar la calle: no es para que tengan miedo de las autos, es para que sepan cómo moverse.
Lo más importante
La clonación de voz con IA es real, accesible y ya se usa en estafas familiares documentadas.
El protocolo más efectivo: una palabra de código familiar y la regla de siempre verificar antes de transferir.
La conversación con tus hijos sobre este riesgo no tiene que asustar. Tiene que informar.
“La mejor defensa contra las voces falsas no es tecnológica. Es un código secreto y la regla de llamar directamente antes de reaccionar.”
Entender los riesgos reales de la tecnología es el primer paso para proteger a tu familia.
Preguntas frecuentes
P:¿Es ilegal clonar la voz de alguien sin su permiso?
R:En la mayoría de los países, clonar la voz de alguien sin consentimiento y usarla para engañar o estafar es ilegal bajo leyes de fraude, suplantación de identidad o privacidad. Sin embargo, la legislación específica sobre deepfakes de voz está aún en desarrollo en muchos países de Latinoamérica. La prevención es más efectiva que la acción legal posterior.
P:¿Cómo sé si una llamada de emergencia de mi hijo es real o clonada?
R:La señal más clara es la urgencia extrema y el pedido de no llamar a nadie más. Las estafas de voz clonada casi siempre incluyen: urgencia máxima, pedido de transferencia inmediata, y razones para no verificar ('no llames a papá, que se va a asustar'). Ante cualquier llamada de emergencia con pedido de dinero: colgar y llamar directamente al número del hijo.
P:¿Hacer privadas las redes sociales de mi hijo protege su voz?
R:Reduce el material accesible públicamente, pero no elimina el riesgo. Los audios compartidos en grupos de WhatsApp, las llamadas grabadas, o el contenido que comparte con amigos que luego lo recomparten puede ser suficiente. La privacidad en redes es una capa de protección, no una solución completa.
P:¿Los niños pueden ser víctimas además de ser usados como herramienta en la estafa?
R:Sí. Los adolescentes pueden recibir mensajes de audio de voz clonada de sus amigos pidiendo ayuda urgente, fotos o dinero. La suplantación entre pares es un uso documentado. Por eso es importante que los adolescentes sepan que si reciben un pedido inusual de un amigo por audio, deben verificar llamando directamente.
P:¿Qué hago si creo que recibí una llamada de voz clonada?
R:No transferir ningún dinero ni dar información personal. Colgar y llamar directamente al número de la persona cuya voz creés haber escuchado. Si confirmás que fue una estafa: reportar a las autoridades locales y a la plataforma donde ocurrió (WhatsApp, por ejemplo, tiene mecanismos de reporte). Documentar la llamada con capturas antes de borrarla.

¿Necesitás ayuda personalizada?
Lic. Julieta Dorgambide · Psicopedagoga y Directora Clínica de Educa Chubi
Ver servicios