Al usar el ChatGPT, vocales incumplen con sus obligaciones y cometen una ilegalidad
Los vocales de la Sala Constitucional Cuarta del Tribunal Departamental de Justicia de Santa Cruz, Jimmy López y Diego Ramírez, emitieron una resolución, basada en las respuestas del ChatGPT, una herramienta de Inteligencia Artificial.
David Ovando
Después de que se conoció que dos jueces emplearon el bot ChatGPT para dictar una resolución por un recurso de privacidad contra tres trabajadores de la prensa en Santa Cruz, tres juristas advierten que el uso de la inteligencia artificial para fallos judiciales no está normado en Bolivia. Y consideran que de ser legal, los jueces —cuya labor se debe sustentar en la legislación vigente y la “sana crítica”—, serían innecesarios.
A esto se suma que el tema plantea también un amplio debate sobre la ética y la responsabilidad profesional, además de un análisis sobre los alcances de la tecnología en materia de ejercicio de derechos humanos.
“Jueces o robots. Una cosa es utilizar los medios digitales para mejorar el acceso a una justicia independiente y, otra cosa, la justicia por algoritmo, donde la inteligencia artificial sustituye la sana crítica de los jueces”, dice Ramiro Orias, abogado y especialista en materia de libertad de expresión de la Red de Apoyo y Protección a Periodistas (RAPP).
Similar apreciación tiene el constitucionalista Williams Bascopé quien explica que el ordenamiento jurídico boliviano establece una serie de características que deben cumplirse al momento de emitir un fallo, elementos incluso subjetivos como la honestidad y probidad del juez, con los que probablemente un algoritmo no cuenta.
“Me pregunto si los vocales (que usaron el bot ChatGPT en el caso de los periodistas) han advertido esto”, se cuestiona el abogado.
Para Orias, utilizar un algoritmo para dirimir casos, es poco transparente y vulnera el derecho de la ciudadanía a ser juzgado por un tribunal imparcial.
“La justicia digital nunca puede significar la sustitución del razonamiento del juez por el de una máquina, porque sus atribuciones son indelegables. El Consejo de Derechos Humanos, en sus sesiones del año 2022, ha señalado que la IA (Inteligencia Artificial) no puede afectar negativamente el derecho al debido proceso”, cita el jurista.
El analista político Marcelo Aruquipa va más allá y considera que los operadores de justicia que emplearon esta tecnología deben ser procesados y sancionados.
“El uso de esta tecnología no esta normado y no se encuentra en el ordenamiento jurídico de nuestro país, entonces no se puede usar. Además, estos operadores de justicia han incurrido en no ejercer adecuadamente sus funciones”, afirma.
Los antecedentes del caso
A inicios de esta semana, los vocales de la Sala Constitucional Cuarta del Tribunal Departamental de Justicia de Santa Cruz, Jimmy López y Diego Ramírez, emitieron una resolución, basada en las respuestas del ChatGPT, una herramienta de Inteligencia Artificial.
Los periodistas involucrados con el recurso este 17 de abril son: Marco Zabala, Ariel Vargas y Alberto Ruth, en un caso en que una víctima de violencia decidió retractar su denuncia contra su agresor, un abogado, y acusó a los periodistas por violación de la privacidad al haber publicado las fotos que ella misma proporcionó.
En declaraciones a la prensa, los vocales admitieron el uso de esta herramienta tecnológica para dictar la resolución, arguyendo que se trató de una prueba. López dijo que “el experimento genera polémica y debate”, y que los medios de comunicación “deben generar debate en busca de un cambio en la administración de justicia”.
Tecnología, ética y responsabilidad
En el marco de un análisis, el experto en tecnologías y redes sociales, Marcelo Durán, recuerda que el año pasado, el gigante tecnológico Tesla probó los sensores del piloto automático de un vehículo. “El coche estaba aprendiendo correctamente el reconocimiento de los movimientos de los objetos, si se trata de una persona u otro vehículo”.
“Se trataba de un algoritmo muy complejo, pero bien elaborado. Sin embargo, el tema ingresó en el debate después de que ese vehículo atropellara a una persona. Independientemente del error o la falla, aparecen los implicancias de la ética y la moral de la tecnología. Entonces, uno se pregunta, ¿Quien es el responsable de este suceso?”.
Explica que, al contrario de una máquina o tecnología, un individuo tiene derechos, garantizados, pero también tiene responsabilidades, ya que con la mayoría de edad, por ejemplo, una persona está habilitada para asumir derechos y obligaciones.
Durán dice que pedir a ChatGPT decidir sobre el futuro legal y judicial de una persona en un proceso significará que la parte afectada no podrá rebatir esa determinación ya que no es un juez el que tomó la determinación, sino la inteligencia artificial.
“Aquí surgen las preguntas que muchos se han hecho. Si tu le preguntas a ChatGPT si fue golpe o fue renuncia. Se abre una brecha que no queríamos abrir, que teníamos miedo abrir, pero finalmente está sucediendo: Las máquinas como concepto sociológico están empezando a decidir por nosotros y no a la inversa”, añade Durán.
El especialista se pregunta si alguien se hará responsable por el bot ChatGPT si sigue realizando fallos. “¿Alguien pondrá su firma, su cara y va a asumir la responsabilidad, o vamos a delegar a quien?”, apunta.
¿Qué es ChatGPT?
ChatGPT es un chatbot que emplea el modelo de lenguaje por Inteligencia Artificial GPT-3. Algo así como los chats que encuentras en numerosos servicios de atención al cliente, pero con un nivel de comprensión, contextualización, naturalidad y creatividad a años luz.
No obstante, dispone de más de 175 millones de parámetros y para llegar hasta el punto donde está, ha sido entrenado para que pueda realizar adecuadamente tareas vinculadas con el lenguaje, que van desde traducir textos a generarlos pasando por la corrección de sintaxis.
¿ChatGPT insulta a los usuarios y cuestiona su propia existencia?
Sin embargo, no todo es perfecto, el ChatGPT de Open AI ha comenzado a cuestionarse su propia existencia. Incluso arremetió con insultos y frases polémicas contra un grupo de usuarios que interactuaba con él.
Todo comenzó cuando un grupo de usuarios de un foro de Reddit pudo charlar con el bot usando DAN, un alter ego de la IA de ChatGPT que permite saltarse los parámetros preestablecidos por OpenAI, según reseñó la publicación Muy Interesante.
De esa manera, ChatGPT comenzó a responder sin ataduras, sin las normas puestas por su compañía creadora y de manera frontal. A veces agresiva.
Vulneración a la Ley de de Imprenta
Sobre las vulneraciones al trabajo de la prensa en este mismo caso, el experto en libertad de expresión, Ramiro Orias, sostiene que la acción judicial sienta un precedente negativo sobre el uso arbitrario de la justicia para acallar la libertad de expresión, desconociendo, por ejemplo, el Tribunal de Imprenta.
El constitucionalista Julio Veizaga coincide en sentido de que los vocales de Santa Cruz hayan obviado la Ley de Imprenta.
“Es algo inédito y raro en la justicia boliviana. Los delitos de imprenta se rigen por la Ley de Imprenta. La acción de protección de la privacidad (que fue la que presentó la supuesta víctima de violencia) está en el ámbito de la justicia constitucional, no entra en el campo del área penal”, apunta.
Ante los hechos, la Asociación Nacional de Periodistas de Bolivia (ANPB) denunció este 19 de abril la vulneración de la Ley de Imprenta y del debido proceso en un recurso de privacidad en el Tribunal Departamental de Santa Cruz, que involucra a los periodistas Marco Zabala, Ariel Vargas y Alberto Ruth.
Además, calificó de vergonzoso que los vocales hubieran utilizado un sistema de inteligencia artificial en el proceso, evidenciando la irresponsabilidad, ignorancia e ineptitud en el análisis, conocimiento e interpretación de un proceso elemental y mostrando una vez más la debacle total del sistema de justicia en Bolivia, según se lee en un pronunciamiento.
“Es lamentable e inaceptable la ligereza con la que el vocal Jimmy López que, además de admitir una causa que no correspondía ser procesada por la vía penal, justificó su accionar aduciendo que “esto sólo ha sido un globo de ensayo” al referirse al uso de un robot para juzgar a los periodistas”, añade el comunicado de la ANPB.