Evita estafas con IA: guía práctica para detectar llamadas con voz clonada

Por diegoantonio , 10 Diciembre 2025
Sumario
Las estafas telefónicas con voz clonada se multiplican: delincuentes usan fragmentos de audio tomados de redes sociales para suplantar identidades y solicitar dinero o información sensible.
Cuerpo de la Nota

Ciudad de México, México. – Las estafas telefónicas basadas en clonación de voz con inteligencia artificial (IA) se han incrementado de manera significativa, alertaron a especialistas en ciberseguridad , quienes advirtieron que los delincuentes utilizan fragmentos de audio tomados de redes sociales, mensajes de voz o contenidos públicos para generar imitaciones que replican la voz de familiares, colegas o personas de confianza .

Con estos modelos, los proveedores realizan llamadas fraudulentas en las que solicitan dinero, datos personales o acciones urgentes , simulando emergencias o instrucciones laborales. Las autoridades recomiendan prestar atención a patrones auditivos y conductuales que permiten detectar estas imitaciones antes de caer en fraudes.

Entre los indicadores más comunes destacan las pausas irregulares , entonaciones monótonas o artificiales , pronunciaciones inusuales y la ausencia de respiración natural durante la conversación. En muchos casos, los delincuentes utilizan guiones preestablecidos y evitan responder a preguntas imprevistas, lo que delata el carácter automatizado del audio.

Para verificar la autenticidad de una llamada, las autoridades sugieren colgar y devolver la llamada utilizando un número previamente guardado, así como confirmar la información por otro medio , ya sea un mensaje directo o el contacto con un tercero. También recomendamos establecer una palabra clave o frase de verificación entre familiares o equipos de trabajo para confirmar la identidad en caso de emergencia.

Los especialistas insisten en no compartir información financiera ni personal durante llamadas inesperadas y limitar la publicación de audios o videos en redes sociales , pues estos materiales pueden ser utilizados para entrenar modelos de voz clonada.

A nivel técnico, los investigadores trabajan en sistemas de detección acústica y fonética capaces de identificar voces sintéticas mediante la detección de artefactos digitales y variaciones de entonación . No obstante, subrayan que la verificación humana sigue siendo la defensa más eficaz ante intentos de suplantación.

En el ámbito corporativo, las empresas han comenzado a implementar protocolos de seguridad adicionales , como la verificación de órdenes financieras mediante canales oficiales y múltiples responsables . En el hogar, las campañas informativas invitan a la población a desconfiar de números desconocidos ya informarse sobre las nuevas modalidades de fraude impulsadas por la IA.

Las autoridades coinciden en que la prevención, la prudencia y la verificación cruzada continúan siendo las herramientas más efectivas para evitar ser víctima de estafas con voz clonada .

Descubre todo sobre noticias Puebla y de todo México visitando nuestra página principal.

Foto: Especial 

Djs

 

Galería de Imagenes
Imagen
IA
Contador
111
Publicar en
Sección
valoracion
0