Deepfakes y clonación de voz así operan las estafas digitales más peligrosas de 2025
Las estafas con inteligencia artificial se disparan en 2025 con deepfakes y clonación de voz que engañan a empresas y familias en todo el mundo
Autor - Aldo Venuta Rodríguez
3 min lectura
Las estafas digitales han alcanzado un nivel de sofisticación sin precedentes en 2025 gracias a la inteligencia artificial. Herramientas que hace pocos años parecían ciencia ficción hoy son utilizadas para clonar voces, crear deepfakes realistas y engañar tanto a empresas como a ciudadanos comunes.
El fenómeno no es marginal. Según estimaciones internacionales, solo en 2024 las estafas con suplantación de identidad mediante IA generativa alcanzaron más de 2.000 millones de dólares en pérdidas, mientras que los fraudes vinculados a criptomonedas superaron los 4.600 millones. Los ataques con deepfakes se multiplicaron por diez en apenas un año y en Norteamérica el incremento llegó al 1740%.
Uno de los casos más sonados ocurrió en Hong Kong, cuando un empleado de la firma británica Arup transfirió 24 millones de euros tras participar en una videollamada donde todos los directivos eran deepfakes. La estafa demostró hasta qué punto la clonación de voz y las imágenes sintéticas pueden engañar incluso a profesionales experimentados.
En el terreno personal, los ciberdelincuentes explotan emociones profundas. Una mujer en Florida perdió más de 7.500 dólares al creer que mantenía una relación con el actor Jason Momoa gracias a videos falsos generados por IA. En otro caso, un padre transfirió 25.000 dólares convencido de que la voz de su hijo le pedía ayuda tras un supuesto accidente. Era un clon perfecto creado con apenas segundos de grabación.
Los expertos explican que con solo tres segundos de audio es posible generar una voz artificial con más del 80% de similitud. Herramientas avanzadas, como el motor Voice Engine, pueden replicar voces humanas con gran precisión a partir de un clip de 15 segundos, lo que abre la puerta a miles de fraudes donde la confianza es la clave.
El impacto se extiende también al ámbito empresarial y gubernamental. Las llamadas estafas de BEC (Business Email Compromise) ahora incluyen videollamadas con rostros y voces falsificadas en tiempo real. Programas como DeepFaceLive o Amigo AI permiten a los estafadores alterar su identidad visual y vocal durante una reunión de Zoom, incluso imitando identificaciones oficiales.
Las consecuencias son claras. Estudios recientes revelan que el 25% de los encuestados por McAfee ha experimentado un intento de clonación de voz con IA o conoce a alguien que fue víctima. Además, el estadounidense promedio se expone a 2,6 deepfakes de video diarios, una cifra que asciende a 3,5 en el grupo de jóvenes entre 18 y 24 años.
Para enfrentar esta amenaza, las autoridades recomiendan medidas prácticas como acordar palabras clave familiares, evitar compartir audios personales en redes sociales y desconfiar de llamadas inesperadas que soliciten dinero. La detección técnica avanza, pero los ciberdelincuentes adaptan sus métodos con gran rapidez, obligando a la sociedad a combinar herramientas tecnológicas, regulación y un sano escepticismo digital.
El futuro plantea escenarios aún más complejos. Expertos del sector cripto advierten que el verdadero riesgo ya no es la volatilidad sino el fraude acelerado por IA. Sam Altman, CEO de OpenAI, alertó que podría avecinarse una crisis global de estafas. Ante este panorama, la consigna es clara: verificar siempre y nunca confiar ciegamente en lo que vemos u oímos en internet.
Continúa informándote
Cada vez es más difícil distinguir entre videos reales y videos creados por inteligencia artificial
Los videos generados por inteligencia artificial alcanzan un realismo casi indistinguible de las grabaciones reales, lo que complica la verificación, alimenta la desinformación y erosiona la confianza digital
Qué implica para Google tener que abrir sus datos de búsqueda e IA a la competencia
La UE presiona a Google para compartir datos de búsqueda, Android y su IA con rivales. La medida promete más competencia, pero abre dudas sobre privacidad y seguridad.
Reddit apuesta por la búsqueda con IA como su próximo motor de ingresos
Reddit impulsa su buscador con inteligencia artificial y lo perfila como su próxima gran fuente de ingresos, combinando respuestas generativas, comunidades y licencias de datos
Si se aprueba el Chat Control, tus chats podrían ser escaneados antes de enviarse
El plan europeo “Chat Control” permitiría ordenar el escaneo de chats privados para detectar abuso infantil. Expertos alertan de riesgos para el cifrado y la privacidad
Moltbook no es una red de IA autónoma: infiltraciones humanas, spam y mucho teatro
Un periodista se infiltra en Moltbook haciéndose pasar por un bot y descubre suplantaciones, fallos de seguridad y mucho más teatro humano que inteligencia artificial
Anthropic promete que Claude no tendrá anuncios y marca distancia frente al modelo publicitario de ChatGPT
Anthropic asegura que su asistente Claude seguirá sin anuncios y critica el giro publicitario de ChatGPT, defendiendo un modelo centrado en el usuario y no en los anunciantes