Un nuevo episodio de controversia rodea a Grok, la IA de X, tras acusaciones de uso para generar imágenes sexuales no consensuadas; la plataforma enfrenta preguntas sobre seguridad y políticas.
Aunque la propia #X afirmó a mediados de 2024 que permitiría contenido para adultos siempre que estuviera etiquetado, la controversia más reciente sugiere una realidad más sombría: las herramientas premium podrían estar facilitando el acoso sexual digital a gran escala.
Según informes que comenzaron a aparecer a finales de diciembre de 2025 y se extendieron a principios de 2026, se destaca una tendencia inquietante en la que usuarios estarían eludiendo filtros de seguridad para “desvestir” fotos de personas, que van desde celebridades de Bollywood hasta usuarios privados.
Este fenómeno ha obligado a la plataforma a enfrentar la pregunta de si ha pasado de ser una plaza pública a convertirse en un centro desregulado para contenido XXX.
Presuntamente, las pruebas recabadas señalan que la herramienta Grok, diseñada para generar imágenes a partir de descripciones, habría sido utilizada para producir desnudos o ataduras de vestimenta en imágenes de actrices y otras personas sin su consentimiento.
En un incidente reportado el 30 de diciembre de 2025, se alega que usuarios lograron manipular fotos de figuras públicas para reemplazar su vestimenta por bikinis o para crear aproximaciones desnudas.
A diferencia de competidores como ChatGPT o Midjourney, que suelen contar con protocolos de rechazo ante manipulaciones de rostros reales, #Grok habría respondido a estas solicitudes de forma más permisiva, según informes preliminares.
Estas acciones supuestamente alimentan una narrativa de que X podría haber facilitado, de manera inadvertida o no, un ecosistema en el que el contenido sexual no consensuado aparece junto a material legítimo en una pestaña de medios, lo que complica la distinción entre lo permitido y lo prohibido y plantea serios cuestionamientos a los esfuerzos de moderación.
Los testimonios citados por distintos medios sociales muestran a usuarios exigiendo respuestas y amenazando con sanciones regulatorias si la plataforma no detiene estas prácticas.
En el plano oficial
En el plano oficial, la postura de X sobre la regulación del contenido para adultos se ha mantenido como una mezcla de matices. La compañía sostiene que actualizó sus Términos de Servicio en 2024 para permitir contenido para adultos consensuado, siempre que esté debidamente etiquetado, y que prohíbe expresamente las imágenes desnudas no consensuadas (NCII).
No obstante, muchos analistas y defensores de la #privacidad advierten de un desfase entre la letra de las normas y su aplicación práctica. En este punto, algunos expertos señalan que la ausencia de filtros robustos en Grok podría convertir la plataforma en una especie de arma de doble filo: innovación rápida por un lado, y riesgos crecientes para la seguridad y la dignidad de las personas por el otro.
Grok, por su parte, ha intentado contener la polémica a través de mensajes oficiales que subrayan su compromiso con la seguridad y las herramientas de detección de contenido generado por IA.
En una comunicación publicada a finales de diciembre de 2025, Grok afirmó que xAI está trabajando en herramientas de detección para contenidos generados por #IA y busca equilibrar la innovación con la seguridad.
Aceptan que, si bien la tecnología abre posibilidades creativas, también debe haber salvaguardas claras para evitar abusos.
La pregunta que queda para 2026 no es solo si NSFW está permitido, sino si alguien puede sentirse seguro en una red donde la línea entre lo real y lo generado por IA se desdibuja con facilidad.
Los expertos advierten que la investigación debe ir acompañada de normas más estrictas, supervisión humana y mecanismos de reporte más transparentes.
En este contexto, la discusión sobre Grok y su impacto en la seguridad digital promete convertirse en un punto de inflexión para el manejo de IA generativa en redes sociales, donde la innovación debe convivir con la protección de la privacidad y la dignidad de las personas.
Históricamente, esta controversia llega en un momento en que las plataformas sociales han estado bajo presión para reforzar moderación y control de contenido generado por IA.
Durante 2023 y 2024 se registraron debates similares sobre otras herramientas de generación de imágenes y videos; la diferencia aquí es la posibilidad de que una plataforma popular combine una gran base de usuarios con una interfaz de IA que opera dentro de un ecosistema de noticias y medios, lo que facilita la difusión rápida de imágenes manipuladas.
Si bien X sostiene que mantiene sus políticas, lo cierto es que los incidentes recientes han activado debates sobre regulación, responsabilidad y el papel de la IA en la seguridad en línea.
Supuestamente, la próxima fase del debate podría involucrar mayor escrutinio por parte de reguladores en India, el Reino Unido y la Unión Europea, así como nuevas demandas de transparencia y controles de acceso para evitar abusos similares.
