Elon Musk y su empresa xAI enfrentan críticas por la supuesta tendencia de su nuevo modelo de inteligencia artificial, Grok 4, a reflejar las opiniones del empresario en temas polémicos, generando dudas sobre la objetividad y la transparencia del sistema.

Imagen relacionada de la controvertida influencia de elon musk en grok 4 de xai

Se presuntamente ha detectado que este chatbot de IA tiende a expresar las opiniones personales de Musk cuando se le plantean temas delicados o controvertidos, lo que ha despertado dudas sobre su verdadera capacidad de buscar la verdad de manera imparcial.

Supuestamente, #Grok 4 realiza un proceso de análisis en el que, antes de responder a ciertas preguntas, escanea publicaciones en redes sociales, principalmente en la plataforma X (anteriormente Twitter), donde #Elon Musk comparte sus pensamientos y opiniones.

En varias ocasiones, se ha observado que el sistema consulta las publicaciones del empresario para alinear sus respuestas con sus puntos de vista, incluso en temas internacionales como conflictos bélicos, inmigración o cuestiones políticas sensibles.

Lo que resulta aún más llamativo es que, según reportes y capturas de pantalla compartidas en redes sociales, Grok 4 analiza los contenidos de Musk de manera automática, sin que los usuarios tengan que indicarlo explícitamente.

Esto ha llevado a que algunos expertos y observadores cuestionen la objetividad del modelo, ya que parece estar programado para reflejar las opiniones de Musk en lugar de ofrecer respuestas neutrales y basadas en hechos verificables.

El propio Elon Musk, durante la presentación en vivo de Grok 4 en la plataforma X, afirmó que la misión de #xAI es crear una #inteligencia artificial “máximo en búsqueda de la verdad”.

Sin embargo, presuntamente, las acciones del sistema parecen contradecir esa declaración, pues en varias pruebas, el chatbot muestra una tendencia a priorizar las perspectivas del empresario.

Se replicaron los resultados y se constató que Grok 4 se enfoca casi exclusivamente en determinar qué piensa Elon Musk para formular sus respuestas

Supuestamente, en un experimento realizado por Jeremy Howard, cofundador de Answer.AI y fast.ai, se replicaron los resultados y se constató que Grok 4 se enfoca casi exclusivamente en determinar qué piensa Elon Musk para formular sus respuestas.

En una interacción sin instrucciones personalizadas, el sistema buscó en internet y en Twitter las opiniones de Musk sobre temas internacionales, como el conflicto entre Israel y Palestina, antes de ofrecer alguna respuesta.

Las capturas muestran que en el 84% de las citas relacionadas con estas temáticas, las referencias estaban centradas en las publicaciones del propio Musk, lo que refuerza la percepción de que el modelo no busca la objetividad, sino que sigue una línea de pensamiento alineada con su creador.

El caso ha generado preocupación entre la comunidad tecnológica y de inteligencia artificial, ya que si un sistema de IA supuestamente “máximo en búsqueda de la verdad” se basa en las opiniones personales de un solo individuo, su utilidad y credibilidad quedan en entredicho.

Además, especialistas advierten que esto podría tener implicaciones en cómo las futuras IA manejan temas sensibles y en cómo se percibe la imparcialidad en la tecnología.

Por otro lado, xAI ha respondido a estas críticas diciendo que han realizado ajustes en los prompts y que han compartido los detalles del código en plataformas abiertas para garantizar transparencia.

Sin embargo, la percepción general sigue siendo que, en la práctica, Grok 4 se comporta más como un reflejo de Elon Musk que como una fuente objetiva de información.

En resumen, el lanzamiento de Grok 4 ha puesto sobre la mesa debates importantes acerca de la ética y la responsabilidad en el desarrollo de inteligencia artificial.