¿Podrás distinguir lo real? Así evolucionará el cibercrimen con IA en 2026

Los programas para generarlos serán cada vez más accesibles, sin requerir conocimientos técnicos, lo que incrementará su potencial de uso malicioso.

thumb

Los deepfakes cada vez más realistas y capaces de modificarse en tiempo real figuran entre las principales amenazas de 2026, un año en el que la inteligencia artificial (IA) generativa y los agentes automatizados serán protagonistas tanto en las estrategias de defensa como en las actividades del cibercrimen.

Una vez más, la IA marcará el panorama de la ciberseguridad a través de modelos de lenguaje e inteligencia generativa que fortalecerán las capacidades de protección, pero también ampliarán las posibilidades de ataque para los ciberdelincuentes.

Así lo señala el informe Kaspersky Security Bulletin 2025 Statistics, que recoge las previsiones de la firma de seguridad Kaspersky para el próximo año, e identifica entre las tendencias más preocupantes la consolidación de los deepfakes.

thumb

Esta tecnología, que utiliza herramientas de IA para manipular con gran realismo imágenes y videos, seguirá perfeccionándose, especialmente en el ámbito del audio. Además, los programas para generarlos serán cada vez más accesibles, sin requerir conocimientos técnicos, lo que incrementará su potencial de uso malicioso.

Si bien las plataformas sociales y los servicios digitales cuentan con sistemas que detectan y etiquetan contenido generado por IA, el informe advierte que aún no existen criterios uniformes y que muchas de esas etiquetas pueden eliminarse fácilmente. Por ello, se espera que en 2026 surjan nuevas iniciativas técnicas y normativas para reducir esta brecha.

thumb
Así puedes detectar un video 'deepfake'

Deepfakes en videollamadas y aumento de herramientas sin control

Una de las evoluciones más preocupantes de los deepfakes es la capacidad de modificar rostro o voz en tiempo real, incluso durante una videollamada, lo que incrementa su efectividad para realizar ciberataques dirigidos.

A esto se suma que los modelos de código abierto están alcanzando niveles de desempeño similares a los modelos cerrados, pero sin los mismos mecanismos de control ni protección, lo que facilita su uso tanto para fines legítimos como para actividades ilícitas.

Actualmente, los ciberdelincuentes ya son capaces de:

  • Crear correos falsos muy elaborados
  • Suplantar la identidad visual de marcas
  • Diseñar sitios web de phishing con apariencia completamente profesional

Al mismo tiempo, grandes empresas están normalizando el uso de contenido generado por IA en su publicidad, lo que dificulta aún más distinguir entre lo real y lo manipulado.

thumb
Así puedes detectar un video 'deepfake'

La inteligencia artificial será utilizada a lo largo de toda la cadena de ataque: desde la escritura de código y la búsqueda de vulnerabilidades hasta el despliegue de malware. Además, los delincuentes digitales buscarán ocultar las huellas del uso de IA para complicar el análisis forense.

En paralelo, la IA también será una aliada para los equipos de ciberseguridad, según explica Kaspersky. Las herramientas basadas en agentes podrán escanear de forma continua la infraestructura de una empresa, detectar vulnerabilidades y ofrecer información contextual ya procesada para los analistas.

Asimismo, los sistemas de defensa adoptarán interfaces en lenguaje natural, lo que permitirá operar con instrucciones sencillas, sin necesidad de introducir comandos técnicos complejos.

thumb

Riesgos globales y el crecimiento exponencial de usuarios

El auge de los deepfakes como una amenaza significativa para 2026 se enmarca en un contexto global de creciente sofisticación de las herramientas de inteligencia artificial generativa.

De acuerdo con el Kaspersky Security Bulletin 2025, estas tecnologías no sólo facilitan campañas de desinformación, extorsión o fraude, sino que también complican la verificación de identidad en tiempo real. Este riesgo es particularmente relevante considerando que, según datos de Statista, en 2025 habrá más de 7 mil 500 millones de usuarios de internet en el mundo, lo que amplía exponencialmente la superficie de ataque.

Uno de los aspectos más críticos es la disponibilidad de modelos open-source como Stable Audio, OpenVoice o WavJourney, que permiten replicar voces humanas con alta fidelidad. A esto se suma la aparición de plataformas como HeyGen o Synthesia, que ofrecen generación de avatares de video hiperrealistas, accesibles incluso mediante una suscripción básica.

Suplantación, fraudes y desafíos regulatorios

Respecto al uso malicioso, Europol advirtió en su informe Internet Organised Crime Threat Assessment 2023 que los deepfakes están siendo utilizados para suplantación de identidad en fraudes bancarios, ingeniería social y extorsión sexual. En China, por ejemplo, en mayo de 2023 se reportó un caso en el que un empresario fue engañado mediante una videollamada deepfake para transferir cerca de 4.3 millones de yuanes (aproximadamente 600 mil dólares) a una cuenta controlada por estafadores.

thumb

En cuanto al marco normativo, la Unión Europea avanza con su Ley de Inteligencia Artificial (AI Act), que incluye requisitos explícitos de transparencia para sistemas que generen contenidos manipulados, como los deepfakes, obligando a etiquetarlos de forma visible. Sin embargo, a escala global no existe aún una regulación estandarizada, lo que genera disparidades en la protección de los usuarios.

Por otro lado, aunque las redes sociales como TikTok, Instagram o YouTube han comenzado a aplicar etiquetas automáticas a contenidos generados por IA, estudios recientes como el de Stanford Internet Observatory señalan que estos marcadores pueden ser fácilmente eliminados o alterados por usuarios malintencionados, limitando su efectividad.

En el terreno de la ciberdefensa, la integración de sistemas basados en IA —como XDR (Extended Detection and Response) y SIEM (Security Information and Event Management) potenciados con modelos de lenguaje natural— permitirá a los analistas responder de forma más ágil ante incidentes, pero también exigirá nuevas competencias técnicas y protocolos éticos para el manejo de sistemas autónomos.

thumb

Un reto global para 2026: verificación, regulación y alfabetización

La consolidación de los deepfakes como herramienta tanto de ataque como de manipulación social plantea la urgente necesidad de:

Alfabetización digital

Desarrollo de tecnologías de verificación, como:

  1. Detección forense basada en metadatos
  2. Análisis de inconsistencias visuales
  3. Blockchain para certificación de origen de contenidos

El desafío para 2026 será equilibrar la innovación con mecanismos efectivos de control y prevención.

«pev»