La proliferación de la inteligencia artificial abre interrogantes en diversos ámbitos de la vida cotidiana, especialmente en términos de confidencialidad. Uno de ellos es el uso particular de plataformas para realizar consultas y pedir orientaciones en el actuar de las personas frente a problemáticas legales.
El investigador de la Facultad de Derecho de la Universidad Finis Terrae, Rodrigo Poyanco, analizó las implicancias y márgenes legales de operación en casos judiciales. En su columna de opinión publicada en Cooperativa.cl, planteó que “no, Chat GPT no es tu abogado (y tus consultas podrían terminar ¡en tribunal!)”.
En su reflexión, el académico plantea el caso de “una persona imputada por un delito, antes de recurrir a un abogado, expone su problema legal a una inteligencia artificial (IA). Le cuenta todo, incluyendo el cómo habría cometido los delitos de que se le acusa”. El sujeto, hipotéticamente, envía a su defensa la respuesta de la aplicación para ser utilizada durante el juicio.
El problema surgiría si “la Fiscalía incauta el material obtenido de la IA, enterándose de todo lo que usted le contó en términos, aparentemente, confidenciales”. En términos generales, “la confidencialidad profesional que resguarda el ejercicio de la profesión de abogado protege ‘toda la información relativa a los asuntos del cliente que el abogado ha conocido en el ejercicio de su profesión’”.
“El secreto mejor guardado es el que no se cuenta (a la IA)“
El académico recuerda que “esa confidencialidad protege la relación entre el profesional y su cliente; no la que se traba entre el afectado y una máquina”. Recientemente un juez norteamericano resolvió “que los documentos y consultas realizados por un imputado por fraude a través de una plataforma de inteligencia artificial comercial no se encuentran protegidos por el privilegio abogado-cliente”.
Ante esto, el profesor Poyanco plantea que “en tiempos de millones de consultas de personas y profesionales (…) estas conclusiones, aunque chocantes, difícilmente podrían calificarse como ‘sorprendentes’”. Además, según Samuel Altman, CEO de Open AI, “si un usuario comparte datos sensibles con ChatGPT, y posteriormente se presenta una demanda judicial, (la plataforma) podría verse en la obligación de entregar esa información”.
Con todo, “en el uso de los diversos productos de inteligencia artificial no existe nada parecido a la intimidad”. Por esto, el académico plantea que “en tiempos de semejante cambio tecnológico, la advertencia más antigua del mundo, con ligeras actualizaciones, sigue siendo válida: el secreto mejor guardado es el que no se cuenta (a la IA)”.
Revisa el análisis completo a la confidencialidad e IA
“No, Chat Gpt no es tu abogado (y tus consultas podrían terminar ¡en un tribunal!)”