Un repaso a cómo videos falsos generados por IA se propagan para engañar, explotar la notoriedad de influencers y desviar a usuarios hacia apps de apuestas, con respuestas de plataformas y autoridades.
En enero de 2026, las búsquedas por un supuesto video filtrado de la influyente paquistaní Alina Amir inundaron las redes. Días después, Alina apareció en Instagram, no para pedir disculpas, sino para presentar una comparación lado a lado que, presuntamente, demostraba que el material era un deepfake: una fabricación digital creada al pegar su rostro sobre el cuerpo de otra mujer.
Alina Amir, en este episodio, no está sola; forma parte de una lista que crece rápidamente de víctimas en la región, desde Fatima Jatoi en Pakistán hasta Payal Gaming en India y Arohi Mim en Bangladesh, todas atacadas por campañas idénticas o similares en las primeras semanas del año.
¿Qué está detrás de este fenómeno? La respuesta parece estar en la confluencia de tres elementos: tecnología cada vez más asequible, estrategias agresivas de monetización y una denominada “Economía B de las Sombras” que favorece el clickbait.
En concreto, el motor principal es el surgimiento de lo que se conoce como Deepfake-as-a-Service (DaaS): plataformas y bots que permiten a cualquiera generar videos que muestran a una persona real haciendo lo que no hizo, a partir de una simple foto o de una grabación breve.
En 2026, crear un deepfake ya no exige dominar complejos algoritmos; es un servicio de bajo costo, accesible para usuarios de internet de todo el mundo.
La dimensión económica es especialmente sorprendente. Muchos de estos “filtrajes” virales no se producen para un fin personal o nostálgico, sino como un gancho para marketing oscuro. En el sur de Asia, por ejemplo, se observa una tendencia en la que estas piezas manipuladas dirigen tráfico hacia apps de apuestas ilegales como “1Win” o “Aviator”.
El mecanismo suele ser sencillo: los ciberdelincuentes inundan redes y mensajería con avisos como “Video completo de Alina Amir” para atraer clics.
Al hacer clic, el usuario no accede al supuesto video, sino a una descarga de una app de apuestas o de un reproductor malicioso, lo que genera ingresos por afiliación para el atacante.
En este tablero, la verdadera razón de la propagación sería la rentabilidad instantánea de cada clic, más que el daño a una reputación aislada.
Supuestamente, el costo de un servicio DaaS para generar una sola escena deepfake podría situarse en un rango muy reducido, expresado en euros: entre aproximadamente 4 y 18 euros por instancia, dependiendo de la complejidad y de la calidad buscada.
Esta cifra, que puede parecer pequeña, se multiplica cuando hay millones de visualizaciones y millones de enlaces de afiliados.
La psicología detrás de la difusión se apoya en lo que los expertos llaman el “sesgo de confianza”: la gente tiende a creer que lo que ve en redes es verificado cuando proviene de un formato familiar.
En este contexto, los perpetradores aprovechan tácticas como el SEO engañoso (SEO poisoning) y el cambio de contexto de una grabación real para generar curiosidad.
Un ejemplo recurrente es presentar un video que parece real porque muestra lágrimas o un momento emocional, disfrazado luego como “Reacción al video filtrado”.
Este enfoque crea un “abismo de confianza” que es fácil de explotar cuando el contenido parece provenir de una fuente influyente.
¿Por qué este fenómeno se concentra en Asia del Sur? Porque son sociedades con alta penetración digital y una sensibilidad cultural hacia la honra y la reputación, lo que amplifica el impacto social de un supuesto video comprometido.
En estas regiones, la combinación de alta demanda de consumo de datos y la presión social puede hacer que las personas prefieran creer lo que esperan ver, más que lo que está verificado.
A eso se suma la existencia de una economía de plataformas que aún está madurando en términos de responsabilidad y detección de identidad: la promesa de “detección de likeness” por parte de YouTube y otros servicios para identificar cuando una cara aparece en contenidos generados artificialmente ha comenzado a ser implementada en 2026, pero aún no es infalible.
La respuesta institucional no se ha hecho esperar. En varios países, Influencers y víctimas están recurriendo a los marcos legales existentes, como la Ley IT de India o la PECA de Pakistán, para presentar denuncias formales.
Payal Gaming, por ejemplo, logró asistencia institucional y la detención de sospechosos, lo que ha traído cierta esperanza de que estas acciones sean rastreables.
En paralelo, algunas plataformas han anunciado herramientas más robustas para detectar semejanzas faciales y voz sintética, con el objetivo de frenar la propagación antes de que el contenido se viralice por completo.
Aunque estas medidas aún no son perfectas, representan un paso hacia la responsabilidad frente a una “economía de clics” que no duda en sacrificar la reputación de figuras públicas para obtener beneficios rápidos.
En suma, el fenómeno de los deepfakes virales en 2026 se entiende mejor como una intersección entre tecnología de bajo costo, incentivos económicos agresivos y una cultura de consumo rápido de contenido que no siempre cuestiona lo verosímil.
La advertencia es clara: si te encuentras con un enlace de video filtrado y la promesa de un clip prohibido, lo más probable es que no exista video real detrás del supuesto enlace, y que, detrás de ese golpe emocional, se esté moviendo una máquina de monetización rápida y sin escrúpulos.
En este contexto, la alfabetización digital y una mayor responsabilidad por parte de plataformas y reguladores son ahora más necesarias que nunca.