deepfakeCsirt2025

La tecnología deepfake ha evolucionado más rápidamente de lo que la sociedad puede adaptarse. En los últimos días, diversos informes han advertido sobre su creciente utilización en fraudes, manipulación electoral e incluso actos de sabotaje institucional. Este fenómeno no solo amenaza la integridad de la información, sino que cuestiona la capacidad humana para distinguir entre lo real y lo generado por inteligencia artificial.

Según un reportaje de Wired, los estafadores están empleando herramientas de inteligencia artificial para generar rostros y voces realistas, engañando a sus víctimas en citas amorosas, ofertas laborales falsas o solicitudes de transferencias de dinero (O'Neill, 2025). Un ejemplo ocurrió en Hong Kong, donde un empleado financiero fue engañado mediante una videollamada deepfake haciéndose pasar por el director financiero de su empresa. La víctima llegó a transferir 25 millones de dólares. Este tipo de fraudes se ha multiplicado: mientras en 2023 apenas se detectaban unos pocos casos al mes, actualmente la proporción ha escalado a cientos mensuales.

Generadores de deepfakes y desinformación política

Un artículo publicado por Time reveló que Google ha lanzado Veo, una herramienta que permite generar videos de alta calidad utilizando IA, incluyendo representaciones falsas de disturbios y fraudes electorales. Aunque incluye marcas de agua invisibles y restricciones de uso, estas son fácilmente eludibles (Frenkel, 2025). Expertos temen que estos videos puedan ser utilizados para manipular opiniones públicas o deslegitimar protestas reales, erosionando la confianza colectiva en los medios visuales. En el rubro empresarial, la firma AU10TIX reportó un nuevo patrón de ataque denominado "Repeaters", en el cual los ciberdelincuentes crean múltiples identidades sintéticas con ligeras variaciones para probar sistemas de verificación biométrica (Collins, 2025). Una vez identifican vulnerabilidades, reutilizan estas identidades para ataques a escala. AU10TIX recomienda auditorías constantes y colaboración entre organizaciones para detectar patrones similares.

El factor humano sigue siendo clave

Contrario a lo que podría pensarse, los humanos siguen siendo más confiables que muchos algoritmos para detectar deepfakes. Tomarse unos segundos extra para analizar un video puede aumentar significativamente la probabilidad de identificar si se trata de una falsificación. Matt Groh, investigador de Northwestern University, sostiene que fomentar la duda reflexiva frente a contenidos inusuales puede ser una de las mejores barreras contra la manipulación digital (O'Neill, 2025).

Frente a este panorama, algunos gobiernos han actuado. En Estados Unidos, el recién aprobado "TAKE IT DOWN Act" exige la eliminación de contenido íntimo no consensuado, incluyendo videos deepfake, y otorga herramientas legales a las víctimas para exigir su retiro inmediato (U.S. Congress, 2025). En paralelo, se discute la creación de un registro global de trazabilidad de contenidos audiovisuales generados por IA.

 

Recomendaciones y mejores prácticas

Para profesionales y organizaciones, la estrategia contra deepfakes debe basarse en cuatro pilares:

  • Tecnología de detección robusta, consiste en utilizar modelos multimodales que combinen análisis de video, audio y metadatos.
  • Educación y conciencia digital, que sirva como base para el entrenamiento a  empleados y usuarios respecto a estos temas.
  • Colaboración multisectorial que permita compartir datos e indicadores de autenticidad entre empresas.
  • Regulación efectiva que permita exigir trazabilidad, denuncia y sanción a generadores de contenido fraudulento.

La evolución de los deepfakes representa una amenaza creciente en múltiples frentes, estafas individuales, manipulación electoral, explotación comercial y crimen digital. La magnitud del problema exige una respuesta integral que combine inteligencia humana, tecnología avanzada y legislación efectiva. Si no se actúa con rapidez y coordinación, la línea entre la verdad y la ficción seguirá desdibujándose de forma peligrosa.

Autores: Peña,H; Cardenas.L; Cardenas.N; Zambrano,L;

Vicerrectoria de Innovación y Emprendimiento

  • Centro de Desarrollo Tecnológico – Centro de Respuestas a Incidentes Informáticos

CSIRT Académico UNAD

Escuela de Ciencias Básicas Tecnología e Ingeniería

  • Maestría e Ciberseguridad | Esp. En Seguridad Informática – ECBTI
  • Semillero Ceros y Unos

 

Referencias

Collins, J. (2025, June 2). Cybercriminals are deploying deepfake sentinels to test detection systems. TechRadar. https://www.techradar.com/pro/security/cybercriminals-are-deploying-deepfake-sentinels-to-test-detection-systems-of-businesses-heres-what-you-need-to-know

Frenkel, S. (2025, June 3). Google’s new AI tool can generate deepfake videos of riots and election fraud. Time. https://time.com/7290050/veo-3-google-misinformation-deepfake

O'Neill, P. H. (2025, June 1). You’re not ready for AI-powered scams. Wired. https://www.wired.com/story/youre-not-ready-for-ai-powered-scams

U.S. Congress. (2025). TAKE IT DOWN Act (Public Law No. 118-104). https://www.congress.gov/bill/119th-congress/senate-bill/146?q=%7B%22search%22%3A%22TAKE+IT+DOWN%22%7D&s=1&r=2