La Justicia decide no sancionar a un abogado que hizo un uso inadecuado de la inteligencia artificial generativa en una querella
El Auto advierte de las implicaciones que puede tener el uso descuidado de las nuevas tecnologías en las tareas legales
(Foto: E&J)
La Justicia decide no sancionar a un abogado que hizo un uso inadecuado de la inteligencia artificial generativa en una querella
El Auto advierte de las implicaciones que puede tener el uso descuidado de las nuevas tecnologías en las tareas legales
(Foto: E&J)
Un reciente Auto dictado por la Sala de lo Civil y Penal del Tribunal Superior de Justicia (TSJ) de Navarra se pronuncia por primera vez sobre los peligros y responsabilidades de los abogados cuando hacen un uso incorrecto de la inteligencia artificial generativa para redactar demandas.
Esta primera decisión judicial llega después de que el Tribunal haya examinado si se había dado abuso de derecho o mala fe por parte de un abogado al incluir en una querella una cita legal proveniente del Código Penal de Colombia. El TSJ, tras reconocer el propio letrado “un error material grosero e involuntario” debido a un uso inadecuado de ChatGPT3, decidió abrir pieza separada para determinar si ha existido abuso de derecho o mala fe procesal por parte de dicho letrado y, asimismo, resolver si procedía imponer o no algún tipo de sanción intraprocesal.
Finalmente, se ha dictado Auto (disponible en el botón ‘descargar resolución’) archivando la causa y decidiendo no imponer ninguna sanción al letrado, dada la novedad sobre este tema y la rápida disculpa por parte del abogado, quien se excusó por escrito ante el Tribunal cuando solicitó la modificación del error que había sido incluido en la querella presentada.
Un manejo inadecuado del CHATGPT 3
Los hechos se remontan al pasado mes de junio, cuando el abogado, tras haber presentado una querella, presentó escrito solicitando “subsanación de error material grosero e involuntario padecido en la redacción de la página 36 del escrito rector de la querella, debiendo tener tal párrafo por no puesto por haber incurrido en completo, absoluto y grosero error material al corresponder el precepto citado en dicho escrito”.
Concretamente, citó un precepto legal que no correspondía al Código Penal de España sino al Código Penal de Colombia. El abogado reconocía en el escrito que dicho error “fue facilitado por la inteligencia artificial”, debido a un manejo inadecuado por parte de su despacho del sistema de inteligencia artificial CHATGPT 3.
El Tribunal Superior de Justicia de Navarra decidió abrir pieza separada para determinar si había habido por parte del letrado un abuso de derecho o mala fe procesal y, por ende, si cabía imponer una sanción o multa a dicho profesional de la abogacía.
Pues, el artículo 247 de la Ley de Enjuiciamiento Civil, que regula el respeto a las reglas de buena fe procesal, establece que “los intervinientes en todo tipo de procesos deberán ajustarse en sus actuaciones a las reglas de la buena fe”, y en garantía de tal mandato, “si los Tribunales estimaren que alguna de las partes ha actuado conculcando las reglas de la buena fe procesal, podrán imponerle, en pieza separada, mediante acuerdo motivado, y respetando el principio de proporcionalidad, una multa”, que podrá oscilar de 180.000 euros a 6.000 euros, “sin que en ningún caso pueda superar la tercera parte de la cuantía del litigio”.
Además, para determinar la cuantía de la multa, dicho precepto legar otorga al Tribunal el deber de “tener en cuenta las circunstancias del hecho de que se trate, así como los perjuicios que al procedimiento o a la otra parte se hubieren podido causar”.
Los abogados son responsables del uso de que hacen de la IA
En el Auto dictado el Tribunal ha comenzado recordando los retos de la inteligencia artificial (IA) en el marco laboral de los abogados, ya que el uso descuidado de estas tecnologías en los procedimientos judiciales plantea importantes implicaciones deontológicas y es susceptible de integrar un claro ejemplo de mala fe procesal y de abuso del proceso.
Por ello, los abogados, cuando hacen uso de herramientas de IA para las tareas legales deben “revisar cuidadosamente el contenido y garantizar la exactitud del mismo”, tal y como recomendaba Law Society cuando publicó nuevas orientaciones para la profesión en noviembre de 2023 sobre el uso de herramientas de inteligencia artificial generativa.
En este sentido, el Tribunal expone que “el uso de las tecnologías emergentes y de los materiales generados por inteligencia artificial en los procedimientos judiciales no está exento de importantes consideraciones éticas y legales para garantizar un uso responsable. Lo que impone una verificación adicional, puesto que la revisión y validación de los documentos legales seguirá siendo responsabilidad de los abogados para garantizar la precisión y el cumplimiento normativo”.
En el presente caso, el querellante incluyó una cita legal relacionada con el delito de ocultamiento, alteración y/o destrucción de material probatorio y que atribuía a la Sala Segunda del Tribunal Supremo, pero en realidad dicha cita que no correspondía ni Código Penal de España, ni tampoco había sido interpretado por la Sala Segunda de nuestro Alto Tribunal, “lo que no puede pasar desapercibido a ningún profesional del Derecho”, instan los magistrados.
No obstante, una vez que el querellante evidenció el error de la cita textual del precepto legal que había incluido en el texto de la querella correspondía al Código Penal de la República de Colombia, “se apresuró a presentar sus más sinceras excusas”.
Por ello, ante la singularidad del caso y la materia “ciertamente novedosa, así como la inmediata reacción del letrado querellante excusando del error cometido”, la Sala se ha inclinado por archivar la presente pieza separada y no imponer sanción pecuniaria al abogado, “sirviendo la presente —quizá— de advertencia de las implicaciones legales, deontológicas y éticas que puede plantear el uso descuidado de las nuevas tecnologías”, señala el Supremo.