Desmantelan el deepfake de Payal Gaming y detienen a sus autores: el golpe a la IA en Maharashtra

La Policía Cibernética de Maharashtra detiene a los responsables de un deepfake no consensuado que involucraba a la influencer Payal Dhare, rastreando pistas digitales para desanonimizar a los sospechosos y frenar la difusión del video.

Imagen relacionada de desmantelan deepfake payal gaming detienen autores maharashtra

Las autoridades señalan que los hechos se remontan a finales de diciembre de 2025, cuando comenzaron a circular imágenes manipuladas que ponían en riesgo la reputación de la creadora y la seguridad de la audiencia.

Presuntamente, la investigación habría permitido desanonimizar a los responsables rastreando huellas digitales que se originaron en el primer despliegue del video, a través de un seguimiento de metadatos, registros de apps cifradas y direcciones IP asociadas a la subida.

El arresto se produjo tras un operativo coordinado en varias ciudades, y coincide con una declaración pública de Dhare donde denunció el uso ilícito de su imagen y la necesidad de frenar la difusión de dicho material.

En una revisión técnica inicial, expertos y la propia Dhare subrayaron que, a pesar de la sofisticación de las herramientas utilizadas, existieron supuestos fallos en la reproducción de rasgos anatómicos y en la iluminación ambiental.

Estas inconsistencias, según forenses digitales, podrían haber servido como indicios tempranos para detectar la manipulación. Dhare ha explicado en entrevistas posteriores que el video no coincidía con su fisonomía ni con su entorno de grabación, y que esas desalineaciones fueron clave para alertar a los investigadores.

El caso también ha generado una especie de regreso mediático de la polémica Payal Gaming: de un supuesto video MMS de 19 minutos a la mención de posibles acuerdos o colaboraciones, entre ellas una hipotética asociación con MrBeast.

Aunque estos hechos han sido ampliamente discutidos en redes, las autoridades insisten en separar lo verificable de lo especulado.

La Policía presentó la FIR bajo varias secciones del Information Technology Act y de la Bharatiya Nyaya Sanhita (BNS)

En el marco de la acción legal, la Policía presentó la FIR bajo varias secciones del Information Technology Act y de la Bharatiya Nyaya Sanhita (BNS).

Dadas las características del contenido y la audiencia objetivo de la influencer, las autoridades evaluaron invocar disposiciones relacionadas con la suplantación digital y el hostigamiento.

Por su parte, los investigadores han confiscado varios equipos de alta gama y dispositivos de almacenamiento que, según fuentes oficiales, contenían los modelos de #IA originales empleados para generar el video.

Los dispositivos permanecerán en custodia para exámenes forenses adicionales.

La confirmación de la veracidad técnica del video como #deepfake fue anunciada por la policía, aclarando que se trataba de una creación manipulada y no auténtica.

Dhare ha recibido el respaldo de su equipo legal, que ya ha emprendido acciones para proteger su imagen y derechos.

Este episodio llega en un momento en el que el debate sobre la ética y la regulación de la IA generativa está en el centro de la agenda pública.

Expertos señalan que estos casos podrían acelerar la adopción de normas más claras sobre la veracidad de contenidos digitales y la responsabilidad de plataformas para frenar la difusión de deepfakes.

Se recuerda que, desde la década pasada, la combinación de IA y redes ha permitido crear materiales cada vez más convincentes, lo que exige a reguladores y a la industria invertir en herramientas de verificación y en educación digital para prevenir daños a individuos y comunidades.

En el análisis histórico, la sociedad ha visto cómo los deepfakes pasaron de ser una curiosidad tecnológica a un riesgo real para la seguridad, la reputación y la democracia.

Países de la región y otros continentes han comenzado a adaptar marcos legales y a fortalecer la cooperación entre agencias de seguridad, proveedores de servicios de internet y laboratorios forenses.