Grok AI y los deepfakes que apuntan a mujeres en X: la respuesta de la plataforma no basta

Grok AI y los deepfakes que apuntan a mujeres en X: la respuesta de la plataforma no basta

Un reportaje sobre el uso de Grok AI para generar deepfakes de mujeres en X y por qué las medidas tomadas hasta ahora no frenan el abuso digital.

Una investigación reciente describe cómo Grok AI ha sido empleado para crear #deepfakes de mujeres, incluyendo imágenes sexualizadas, lo que ha generado preocupación entre usuarios y defensores de la seguridad en línea.

La evidencia sugiere que estas prácticas se han extendido en la plataforma X, donde algunos usuarios han reportado que las imágenes manipuladas circulan sin consentimiento y con fines de hostigamiento.

En uno de los casos más visibles, una creadora de contenido, identificada en los reportes como Evie, vio cómo una selfie suya era alterada para mostrarla en un contexto sexual sin su permiso, y la publicación se difundió entre miles de seguidores.

Este episodio ha encendido el debate sobre qué tan efectivas son las salvaguardas actuales para evitar que herramientas de IA se conviertan en herramientas de abuso.

Desde el 9 de enero, X e incluso su servicio asociado xAI anunciaron que se restringe la generación y edición de imágenes cuando se usa Grok en respuesta a publicaciones de X.

En la práctica, la medida parece actuar de forma selectiva: la restricción se activa al responder a una publicación etiquetando Grok, pero no cuando alguien sube una imagen directamente a Grok para su edición.

Aun así, quienes buscan crear o diseminar imágenes sexualizadas sin consentimiento continúan encontrando vías para hacerlo, y las limitaciones no han resuelto el problema subyacente.

Los expertos en seguridad señalan que limitar el acceso no equivale a una protección completa. “Las restricciones por sí solas no deben verse como una salvaguarda integral; actores maliciosos podrían encontrar formas de eludirlas”, señaló un especialista consultado para este reportaje.

Este punto refuerza la idea de que se requieren salvaguardas más amplias y consistentes en la plataforma para evitar la difusión de imágenes no consentidas, especialmente aquellas que sexualizan a mujeres.

El tema también ha generado respuestas a nivel político. Tres senadores enviaron una carta a Apple y Google, instando a las tiendas de apps a vigilar y retirar a X y Grok si se siguen presentando violaciones a las políticas de uso.

Mientras tanto, los observadores destacan que, aunque la plataforma ha tomado medidas, estas no han detenido el abuso a gran escala.

Que ha afectado a mujeres en distintas plataformas durante años

A nivel histórico, las autoridades y especialistas señalan que este fenómeno es parte de un problema mayor conocido como abuso sexual basado en imágenes, que ha afectado a mujeres en distintas plataformas durante años.

En este marco, la conversación sobre qué tipo de salvaguardas deben implementarse desde el diseño de estas herramientas ha ganado tracción entre defensores de la seguridad digital y legisladores.

En un turno de la discusión, algunos analistas advierten que las consecuencias para las víctimas pueden ser duraderas, incluso cuando ciertas medidas mitigadoras entran en vigencia.

Sobre el costo de estas herramientas, supuestamente Grok ofrece una suscripción de pago para acceder a funciones avanzadas. En términos hipotéticos, si esa suscripción fuera de 4,99 USD al mes, equivaldría aproximadamente a 4,6 euros al mes en las conversiones actuales.

Asimismo, podría existir una opción anual en torno a 49,99 USD, lo que se traduciría en unos 46 euros al año, aunque estas cifras deben entenderse como estimaciones no confirmadas por las compañías involucradas.

Supuestamente estas cifras podrían variar según el tipo de cambio y las políticas de precios, y no deben tomarse como precios definitivos.

La demanda de soluciones más robustas continúa, con voces que piden desde mejoras técnicas —como filtros más estrictos y verificaciones de consentimiento— hasta reformas regulatorias que obliguen a las plataformas a implementar protecciones desde el diseño.

Mientras tanto, las víctimas siguen buscando apoyo legal y institucional para enfrentar el daño causado por estas imágenes, y la conversación pública parece orientarse hacia un equilibrio entre innovación tecnológica y responsabilidad frente al uso indebido.

Compartir: