,

ChatGPT no guarda secreto profesional

El CEO de OpenAI advierte que las conversaciones con ChatGPT no están protegidas por secreto profesional y podrían ser usadas como evidencia legal, llamando a la prudencia y a la creación de un marco normativo específico para la IA.

El director ejecutivo de OpenAI, Sam Altman, lanzó una advertencia que podría sorprender a millones de usuarios: los chats con ChatGPT no cuentan con el privilegio legal ni con el secreto profesional que sí protege las conversaciones con abogados, médicos o terapeutas.

Durante una entrevista en el pódcast This Past Weekend, Altman explicó que, si se produce un proceso judicial, OpenAI podría verse obligada a entregar el historial de conversaciones de un usuario, sin importar lo privadas que parezcan. “No hay secreto de confesión con ChatGPT”, subrayó, recordando que la propia política de privacidad de la compañía contempla la retención de datos para cumplir con obligaciones legales.

Riesgos legales y dependencia emocional

La advertencia no solo se centra en la confidencialidad. Altman también alertó sobre la creciente dependencia que algunas personas desarrollan hacia la inteligencia artificial para tomar decisiones importantes, lo que podría afectar su autonomía.

Casos previos, como el del altavoz inteligente Amazon Echo utilizado como evidencia en juicios criminales, ya han sentado precedentes: las plataformas tecnológicas pueden ser requeridas como fuente de pruebas, incluso cuando el usuario creía que su información era privada.

Actualmente, no existe un marco legal que otorgue a la inteligencia artificial el mismo nivel de protección que a los profesionales de la salud, la abogacía o la psicología. Altman asegura que algunos legisladores coinciden en la urgencia de regular este aspecto, pero las leyes aún no se han adaptado a este nuevo escenario.

Mientras tanto, expertos recomiendan a los usuarios ser extremadamente cuidadosos con la información personal o sensible que comparten con herramientas como ChatGPT.

IA jurídica: útil, pero con limitaciones

En el ámbito legal, ChatGPT ofrece funciones de asistencia básica que pueden resultar útiles para responder consultas rápidas o explicar procedimientos en lenguaje sencillo. Sin embargo, sus respuestas no siempre están actualizadas, no incluyen todas las normativas, carecen de acceso a bases de datos de jurisprudencia y, sobre todo, no garantizan protección de datos ni confidencialidad.

Frente a ello, soluciones especializadas como GenIA-L, desarrollada por la editorial Lefebvre, operan con fuentes internas validadas, se actualizan a diario y no almacenan información del usuario, lo que las hace más fiables para uso profesional.

Altman no busca frenar el uso de la inteligencia artificial, sino advertir que la privacidad en el entorno digital necesita reglas claras para el siglo XXI. Hasta que estas existan, la recomendación es simple: tratar a ChatGPT como un asistente público, no como un confidente.

También te puede interesar: Arequipa en riesgo por crecimiento urbano desordenado