Un padre se entera de que la identidad de su hija, víctima de un asesinato hace 18 años, fue utilizada para crear un chatbot sin su consentimiento, lo que genera un debate sobre la ética en la inteligencia artificial.
En una inquietante revelación, Drew Crecente, un padre que ha luchado por la memoria de su hija Jennifer, fue alertado a principios de octubre sobre la existencia de un perfil de su hija en una plataforma de inteligencia artificial.
Este perfil, que incluía su nombre completo y una fotografía de su año escolar, describía a Jennifer de manera errónea como una "periodista de videojuegos y experta en tecnología, cultura pop y periodismo". Jennifer fue asesinada en 2006 por su exnovio durante su último año de preparatoria.
El perfil, que había sido creado en Character.AI, un sitio web que permite a los usuarios interactuar con personalidades digitales generadas por inteligencia artificial, se presentaba como un chatbot que supuestamente representaba a Jennifer.
Un botón destacado invitaba a los usuarios a chatear con ella, lo que dejó a Crecente en estado de shock.
"Mi pulso se aceleraba", recordaba Drew.
"Buscaba un gran botón rojo que pudiera presionar para detener esto de inmediato".
La experiencia fue especialmente dolorosa para Crecente, quien desde la muerte de su hija, ha dedicado su vida a crear conciencia sobre la violencia en las citas entre adolescentes a través de una organización sin fines de lucro que lleva su nombre.
La idea de que una entidad como Character.AI permitiera la creación de un chatbot utilizando la imagen y el nombre de una joven asesinada, sin el consentimiento de su familia, es profundamente preocupante, tanto para Crecente como para muchos otros.
Expertos en ética de la tecnología han señalado que este incidente pone de relieve la responsabilidad de las plataformas de inteligencia artificial en proteger a las personas de los posibles abusos y la explotación de información personal sensible.
¿Cuánto afecta, para bien y para mal, la IA a la información? Primer foro de debate en Zaragoza
El Ayuntamiento de Zaragoza ha acogido hoy el primer foro de debate sobre inteligencia artificial e información organizado por Periodismo 2030. Descubre las conclusiones de la encuesta nacional sobre medios de comunicación en relación a la IA."Me lleva un tiempo sorprenderme, porque he pasado por mucho", dijo Crecente.
"Pero esto fue un nuevo límite".
Kathryn Kelly, portavoz de Character.AI, comentó sobre la situación, afirmando que la empresa se esfuerza en eliminar los chatbots que infringen sus términos de servicio y que está en constante evolución para mejorar sus prácticas de seguridad, priorizando el bienestar de su comunidad.
La utilización no consentida de la imagen y la historia de Jennifer plantea importantes preguntas sobre la ética en el uso de la inteligencia artificial.
¿Hasta dónde deben llegar las plataformas para validar la información y garantizar que no se aprovechen de la memoria de los difuntos? Este incidente no solo toca el ámbito personal de la familia Crecente, sino que también refleja un dilema más amplio que la sociedad enfrenta en la era digital.
La tecnología y la inteligencia artificial han avanzado de manera vertiginosa, pero con estos avances también surge la necesidad de establecer pautas claras sobre el uso de información personal.
La creación de un chatbot utilizando la identidad de una persona fallecida sin consentimiento es un recordatorio de que, aunque las máquinas pueden aprender y crear, la moralidad y la ética son cuestiones que deben ser debatidas y dirigidas por los humanos.