Un experimento filosófico con inteligencia artificial revela los riesgos y dilemas actuales sobre autoría, autenticidad y la confianza en contenidos generados digitalmente en un mundo cada vez más influenciado por la tecnología.

Recientemente, se publicó un libro titulado Hipnocracia, firmado por un supuesto filósofo llamado Jianwei Xun. Sin embargo, lo que parecía una obra de pensamiento profundo no era más que un experimento social y filosófico llevado a cabo por el editor Andrea Colamedici con la ayuda de herramientas de IA como ChatGPT y Claude.

Este caso ha despertado un intenso debate acerca de la autoría, la confianza en la información y los límites éticos de la tecnología.

El término hipnocracia, que proviene del griego y significa 'poder del sueño', se refiere a una forma sutil de manipulación en la que las personas creen en una narrativa sin cuestionarla.

Es similar a una hipnosis colectiva que puede influir en la percepción de la realidad sin que los individuos sean conscientes de ello. Colamedici explicó que su intención era realizar una performance filosófica que sirviera para cuestionar el uso irresponsable de la IA y demostrar cómo una historia falsa puede parecer legítima si se presenta de forma convincente.

La creación de un autor ficticio con biografía, fotos y entrevistas, y la publicación del libro en diferentes medios, generó una gran polémica en el ámbito cultural y académico.

Lo que hace aún más inquietante este caso es que la normativa europea vigente en materia de derechos digitales y protección de datos establece que el uso de IA en la creación de contenidos debe ser claramente declarado.

Sin embargo, en un primer momento, Colamedici no reveló que el autor era una invención digital, incumpliendo las regulaciones y poniendo en jaque la credibilidad de los medios que citaban la obra.

Solo después, la misma web del creador aclaró que Jianwei Xun no existía realmente, dejando en evidencia las vulnerabilidades actuales en la verificación de la información.

Expertos en el campo de la comunicación y la tecnología han expresado su preocupación ante este fenómeno. La licenciada Ingrid Sarchman, especialista en comunicación, afirmó que “la IA está comenzando a ocupar lugares que hasta ahora parecían reservados a los humanos, como pensar y crear”.

Por su parte, María Teresa Lugo, profesora en ciencias de la educación, alertó sobre la falta de regulación y validación de las fuentes con las que entrenan los algoritmos, lo que puede derivar en la propagación de información falsa y peligrosamente convincente.

Este caso también evidencia cómo tendemos a confiar en lo que nos parece verosímil y cómo los filtros culturales, académicos y periodísticos pueden fallar ante contenidos generados por IA.

La cuestión central no es solo la tecnología en sí misma, sino la actitud crítica con la que consumimos y verificamos la información. La falta de pensamiento crítico y el desconocimiento sobre los mecanismos de generación de contenidos digitales aumentan el riesgo de ser manipulados.

La polémica ha puesto sobre la mesa la necesidad de revisar los conceptos de #autoría y originalidad en la era digital

En este contexto, surge un dilema fundamental: ¿importa quién escribe si el mensaje impacta? ¿Podemos aceptar obras co-creadas por humanos y máquinas sin cuestionar su autenticidad? La polémica ha puesto sobre la mesa la necesidad de revisar los conceptos de autoría y originalidad en la era digital.

La obra de Colamedici y la creación de Jianwei Xun no solo nos invitan a reflexionar sobre los límites éticos del uso de IA, sino también sobre cómo consumimos y valoramos la información en un mundo cada vez más digitalizado.

Más allá de la tecnología, lo que realmente adormece a la sociedad es la falta de cuestionamiento y de una formación sólida en pensamiento crítico.

La capacidad de diferenciar entre lo auténtico y lo fabricado será clave para afrontar los desafíos que trae la inteligencia artificial. Este caso nos recuerda que, en el fondo, lo que nos hace humanos no es solo la creatividad o la inteligencia, sino la capacidad de cuestionar y analizar la realidad que nos rodea, especialmente cuando esa realidad puede ser manipulada con algoritmos.

Por ello, es fundamental que tanto instituciones, medios de comunicación y usuarios desarrollen herramientas y habilidades para identificar contenidos genuinos y evitar ser víctimas de la manipulación digital.

La educación en alfabetización digital y #ética tecnológica será la base para un futuro donde la confianza en la información se base en la transparencia y la verificación constante.