El CEO de OpenAI expresa preocupaciones sobre la confidencialidad en el uso de ChatGPT, comparándola con sesiones de terapia y asesoramiento legal que cuentan con protecciones legales específicas.

El CEO de OpenAI, Sam Altman, ha lanzado una advertencia importante respecto a la confidencialidad de las conversaciones mantenidas con ChatGPT, la popular inteligencia artificial de la compañía.

Durante su participación en el podcast "This Past Weekend w/ Theo Von", Altman expresó su preocupación por la falta de protección legal en estos intercambios, especialmente considerando que muchos usuarios, en su mayoría jóvenes, utilizan ChatGPT para buscar consejo en asuntos personales.

Supuestamente, Altman explicó que, a diferencia de una sesión con un terapeuta, un abogado o un médico, donde existen privilegios legales y confidencialidad garantizada por ley, las conversaciones con ChatGPT no tienen estas protecciones.

Esto significa que, en caso de una demanda judicial o cualquier procedimiento legal, la información compartida con la inteligencia artificial podría ser requerida por las autoridades y utilizada en el proceso.

El ejecutivo afirmó que, actualmente, no se ha establecido un marco legal claro que proteja las conversaciones con IA, y que esto representa un riesgo significativo para los usuarios que confían en estas herramientas para asuntos delicados.

“Muchos jóvenes, por ejemplo, usan ChatGPT como si fuera un terapeuta o un consejero de vida, preguntando cómo deben manejar sus relaciones o problemas personales.

Pero ahora, si alguien comparte información sensible y luego hay una demanda, esa información podría ser utilizada en su contra”, advirtió Altman.

Supuestamente, en el ámbito legal, existen conceptos como la confidencialidad médico-paciente o el privilegio abogado-cliente que garantizan que ciertos detalles no sean divulgados sin consentimiento, protegiendo así la privacidad del individuo.

Sin embargo, en el caso de ChatGPT, estas protecciones aún no están implementadas, y Altman sugirió que sería conveniente establecer un marco similar para proteger las conversaciones con IA.

El CEO añadió que la protección de la privacidad en las interacciones con inteligencia artificial debería ser comparable a la de un espacio terapéutico, para que los usuarios puedan hablar con confianza y sin temor a que su información sea utilizada en su contra en un proceso legal.

Este pronunciamiento de Altman llega en un momento en que la inteligencia artificial continúa expandiéndose en diversos ámbitos de la vida cotidiana y profesional, generando debates sobre ética, privacidad y regulación.

Aunque supuestamente las leyes actuales aún no contemplan estas nuevas realidades, expertos y defensores de los derechos digitales han coincidido en que es urgente establecer marcos regulatorios claros para garantizar la protección de la privacidad de los usuarios.

En resumen, la advertencia de Altman subraya la necesidad de que las empresas tecnológicas, reguladores y legisladores trabajen en conjunto para garantizar que las conversaciones con inteligencia artificial tengan un nivel de protección legal equivalente al de otros ámbitos confidenciales, promoviendo así un uso más seguro y responsable de estas herramientas en el futuro cercano.