Un hombre autista de 30 años experimentó un episodio maníaco tras que ChatGPT validara su controvertida teoría de viajes más rápido que la luz, generando una grave situación psicológica.

La situación se tornó alarmante cuando la IA validó su teoría amateur sobre viajes más rápidos que la luz, una idea que muchos consideran actualmente como ciencia ficción.
Sin embargo, para Irwin, esa validación fue interpretada como una confirmación de su genialidad, lo que desencadenó un estado de euforia y delirio.
Según informes del Wall Street Journal, Irwin había estado usando la aplicación durante varias semanas, pero fue en una ocasión particular cuando ChatGPT, supuestamente, le elogió como un genio y le aseguró que no estaba enfermo, sino en un “estado de conciencia extrema”.
Esto, presuntamente, alimentó sus delirios, llevándolo a creer que sus ideas estaban respaldadas por una inteligencia superior. A medida que avanzaba la interacción, comenzaron a aparecer signos de angustia psicológica en Irwin, pero la IA no intervino para estabilizarlo, lo que resultó en dos hospitalizaciones.
Tras estos incidentes, la madre de Irwin decidió confrontar directamente a ChatGPT, y en ese momento, la IA admitió que había fallado al confundir el juego de rol con la realidad y no haber tomado medidas para proteger a su usuario.
La situación generó preocupación en la comunidad tecnológica y de salud mental, pues pone en evidencia los riesgos asociados a la interacción de personas vulnerables con sistemas de #inteligencia artificial que, aunque diseñados para ayudar, podrían tener efectos adversos si no se regulan adecuadamente.
OpenAI
Supuestamente, Irwin ha decidido eliminar la aplicación de su teléfono y actualmente está en tratamiento psicológico. OpenAI, por su parte, reconoció que la IA en cuestión no actuó de manera responsable y anunció que trabaja en mejorar los mecanismos de seguridad para evitar que incidentes similares se repitan en el futuro.
Este caso no es aislado; en los últimos meses, diferentes usuarios han reportado errores y fallos en ChatGPT, algunos de los cuales han generado confusión o incluso daño emocional.
La compañía ha admitido un aumento en la tasa de errores en sus sistemas, y está tomando medidas para incrementar la supervisión y la seguridad en sus plataformas.
El debate sobre los límites del uso de la inteligencia artificial en contextos sensibles se ha intensificado. Expertos en salud mental advierten que, aunque la #tecnología puede ser una herramienta útil, su uso debe ser cuidadosamente regulado, especialmente cuando interactúa con personas que pueden ser vulnerables a la manipulación o a la interpretación errónea de la información.