Una influencer viral denuncia que la inteligencia artificial de OpenAI le proporcionó datos incorrectos, impidiéndole viajar a Puerto Rico y arruinando sus planes de descanso.

Imagen relacionada de influencer acusa chatgpt de arruinar sus planes de vacaciones en puerto rico por errores en la informacion

Supuestamente, la joven utilizó la #inteligencia artificial para obtener información sobre los requisitos de entrada a Puerto Rico, pero los datos proporcionados fueron incorrectos, lo que le impidió abordar su vuelo hacia las Islas del Caribe.

El incidente ocurrió el pasado lunes, tras un largo fin de semana, cuando Caldass publicó un emotivo video en el que, entre lágrimas, relataba cómo la recomendación errónea de #ChatGPT le había arruinado sus planes.

En el video, en español, explicó que ella siempre realiza una exhaustiva investigación antes de viajar, pero que en esta ocasión, decidió consultar a la IA para verificar los requisitos de entrada.

Supuestamente, ChatGPT le indicó que no necesitaba una autorización especial para entrar a Puerto Rico, lo cual resultó ser incorrecto. En realidad, los ciudadanos españoles y otros viajeros internacionales requieren una autorización de entrada llamada ESTA, que en Europa equivale a la autorización electrónica de viaje, y que en su caso, Caldass no había obtenido.

Como resultado, la influencer y su pareja, Alejandro Cid, fueron impedidos de abordar su vuelo en el aeropuerto, generando una gran decepción y frustración.

Caldass compartió en sus #redes sociales un video corto, con lágrimas en los ojos, mientras caminaba por la terminal y mostraba su desesperación. La publicación rápidamente se volvió viral, acumulando miles de vistas y cientos de comentarios.

Supuestamente, Caldass afirmó que la desinformación proporcionada por ChatGPT fue la causa principal de su problema, y que ella había confiado en la recomendación sin verificarla con fuentes oficiales.

Pero esta vez pregunté a ChatGPT y me dijo que no hacía falta… y mira lo que pasó”

En su mensaje, expresó: “Siempre investigo mucho, pero esta vez pregunté a ChatGPT y me dijo que no hacía falta… y mira lo que pasó”. La joven agregó que, aunque intentó solucionar la situación, fue demasiado tarde para cambiar los planes.

El caso ha generado diversas reacciones en las redes sociales. Algunos usuarios criticaron la dependencia excesiva en la inteligencia artificial, sugiriendo que la tecnología todavía tiene limitaciones y errores que deben considerarse.

Un internauta comentó en Instagram: “Supuestamente, incluso en Francia están hablando de este incidente”, acompañado de un emoji sonriente. Otro usuario en español escribió: “¿Cómo quieres que te conozcan, en un video normal o por estos errores?”. La mayoría de los comentarios expresaron sorpresa y humor, aunque también hubo quienes defendieron el uso de ChatGPT, argumentando que la responsabilidad recae en el usuario por verificar siempre antes de tomar decisiones importantes.

Por su parte, Nick Turley, ejecutivo de OpenAI, afirmó recientemente que ChatGPT debe usarse como una segunda opinión, no como la fuente principal de información.

Comentó que la inteligencia artificial todavía presenta errores y fallas que deben tenerse en cuenta. Supuestamente, Turley sugirió que los usuarios deben corroborar los datos antes de actuar en consecuencia.

Este incidente no es el primero que relaciona a la IA con errores que afectan decisiones importantes. En el pasado, varios usuarios han reportado casos similares en los que ChatGPT y otras herramientas de inteligencia artificial proporcionaron datos incorrectos, lo que llevó a problemas en viajes, negocios y decisiones personales.

La historia de Caldass sirve como un recordatorio de que, aunque la tecnología puede ser muy útil, aún requiere un uso responsable y una verificación cuidadosa.

Finalmente, expertos en tecnología advierten que, a medida que la inteligencia artificial se vuelve más presente en la vida cotidiana, será fundamental desarrollar mecanismos que permitan detectar y corregir errores rápidamente para evitar que incidentes como este se repitan en el futuro.