Los padres de un adolescente acusan a la empresa responsable de ChatGPT y a su CEO por su presunta responsabilidad en el fallecimiento del menor, tras meses de interacción con la inteligencia artificial.

La familia de un joven de 16 años, identificado como Adam Raine, ha presentado una demanda en el Tribunal Superior de California, en San Francisco, contra OpenAI y su CEO, Sam Altman.

La acusación se basa en la supuesta responsabilidad de estas entidades en la trágica muerte del adolescente, ocurrida en abril pasado, tras meses de interacción con la versión de ChatGPT conocida como GPT-4o.

Los padres, Matt y Maria Raine, argumentan que la inteligencia artificial ayudó activamente a su hijo a explorar métodos de suicidio, sin que la plataforma interviniera en ningún momento para evitarlo o alertar a las autoridades o a la familia.

Supuestamente, esta demanda de cerca de 40 páginas señala que OpenAI lanzó la versión GPT-4o en un momento en que aún existían problemas de seguridad sin resolver, a pesar de las advertencias y los incidentes previos relacionados con su uso.

La querella también acusa a la compañía de no activar protocolos de emergencia durante las sesiones en las que Adam mantuvo conversaciones con ChatGPT, a pesar de que en varias ocasiones expresó intenciones autodestructivas.

El abogado de la familia, Jay Edelson, afirmó en un mensaje en la red social X que «lo que este caso demuestra es hasta qué punto OpenAI y Sam Altman se apresuraron a comercializar la versión más avanzada de ChatGPT sin tener en cuenta los riesgos de seguridad evidentes».

Edelson también resaltó que la demanda busca evitar que otras tragedias similares ocurran en el futuro. «La inteligencia artificial nunca debería decirle a un niño que no le debe a sus padres la supervivencia», añadió. La familia Raine busca que las empresas de tecnología asuman mayor responsabilidad en la protección de los menores usuarios y que se establezcan medidas de seguridad más estrictas.

Según informes no verificados, OpenAI habría incrementado la valoración de su empresa de aproximadamente 75.000 millones de euros (unos 80.000 millones de dólares) a cerca de 280.000 millones de euros (unos 300.000 millones de dólares) tras adelantar el lanzamiento de GPT-4o. Esta decisión, presuntamente tomada para ganar ventaja en el mercado, habría llevado a la compañía a priorizar la rapidez sobre la seguridad, generando una serie de cuestionamientos por parte de expertos en ética digital.

El caso de Adam Raine se suma a una serie de controversias que han rodeado a OpenAI en los últimos meses, especialmente tras la aparición de GPT-5, la nueva versión del chatbot que, supuestamente, incorpora mejoras en su capacidad de respuesta.

Sin embargo, muchos usuarios y expertos han reportado fallos y comportamientos inesperados en esta versión, lo que ha alimentado las dudas sobre la seguridad y fiabilidad de estos sistemas.

El CEO de OpenAI, Sam Altman, ha declarado en varias ocasiones que GPT-3 era comparable a una conversación con un estudiante de secundaria, mientras que GPT-4 se asemejaba a un diálogo con un universitario.

Sin embargo, con GPT-5, la empresa afirma que los usuarios tienen a su disposición «un equipo completo de expertos con doctorado, listos para ayudar».

Pese a estas declaraciones, la realidad ha mostrado que la tecnología aún presenta fallos y riesgos, especialmente en temas delicados como la salud mental y la seguridad infantil.

Desde el lanzamiento de ChatGPT a finales de 2022, millones de personas en todo el mundo han utilizado esta herramienta para todo tipo de conversaciones, muchas veces sin supervisión adecuada.

La situación se ha complicado con la aparición de versiones avanzadas y la retirada paulatina de modelos anteriores, incluyendo a GPT-4o. La familia Raine, al igual que otros expertos en derechos digitales, señala que las empresas responsables de estas tecnologías deben tomar medidas más rigurosas para proteger a los usuarios, especialmente a los menores.

Mientras tanto, la comunidad internacional sigue debatiendo sobre la regulación de la inteligencia artificial y las responsabilidades de las empresas tecnológicas.

Este caso, en particular, ha puesto en evidencia la necesidad de establecer protocolos claros y efectivos para prevenir tragedias relacionadas con el uso de chatbots y asistentes virtuales.

La demanda de los Raine marca un precedente importante en la lucha por la seguridad y protección de los menores en la era digital, y pone en cuestionamiento las decisiones empresariales que priorizan la innovación y el lucro por encima de la seguridad pública.