Connect with us
Actualidad

Marchena: “El trato personal del abogado no se puede sustituir por la Inteligencia Artificial”

El magistrado ha asegurado que el ciudadano prefiere un juez robot antes que un juez humano por el posible sesgo ideológico personal

Manuel Marchena en el ICAM hablando sobre IA (Foto: E&J)

Pablo Montes

Periodista




Tiempo de lectura: 3 min

Publicado




Actualidad

Marchena: “El trato personal del abogado no se puede sustituir por la Inteligencia Artificial”

El magistrado ha asegurado que el ciudadano prefiere un juez robot antes que un juez humano por el posible sesgo ideológico personal

Manuel Marchena en el ICAM hablando sobre IA (Foto: E&J)



“De todas las profesiones, los abogados son los que tienen más asegurado el futuro”, ha asegurado el magistrado Manuel Marchena en una conferencia sobre Inteligencia Artificial (IA), que se ha desarrollado esta mañana en Madrid. Ha sostenido que, a diferencia de los jueces y los fiscales, el trato personal que proporcionan los abogados supone una defensa de la profesión ante el impacto de la IA, que “puede ser considerada como una aliada”. Al mismo tiempo, ha asegurado que el ciudadano prefiere un juez robot antes que un juez humano por la posibilidad del sesgo ideológico personal.

“No cabe la actitud anti inteligencia artificial. Esto es una ola y debemos aprender a surfearla sin que nos pegue un revolcón. La Inteligencia Artificial ha llegado para facilitar nuestra tarea, pero tenemos que conservar la idea de que la Administración de Justicia es una tarea humana”. Así podría resumirse la visión que, sobre inteligencia artificial, tiene el presidente de la Sala de lo Penal del Tribunal Supremo, Manuel Marchena. La actitud conservadora no es posible en el actual panorama de desarrollo de la IA, ha insistido. Aún así, «hemos de ser conscientes de que la vida no consiste en máquinas expendedoras de documentos. La ley es algo más que un conjunto de preceptos; es el mandato de una voluntad social. No podemos confiar ciegamente en un algoritmo que lo va a hacer todo”, ha dicho.



A lo largo del acto que se ha desarrollado en la sede el Colegio de la Abogacía de Madrid, en el marco de los encuentro Foro de la Justicia, Marchena ha explicado que la fiscalía de Shanghái ha elaborado un algoritmo que permite formular acusación con un porcentaje de acierto del 97%. “Cuando yo era fiscal me equivocaba mucho más”, ha bromeado. Este sistema  formula acusación por hasta ocho delitos distintos y asegura que “allí están muy contentos porque supone una descarga de trabajo. Aquí llegará, esto es cuestión de tiempo”. Esto que se está utilizando en China lleva a la pregunta: “¿para que queremos fiscales si su trabajo lo puede hacer una máquina?” e, inmediatamente después, afirma Marchena, se plantea la necesidad del juicio oral y de los jueces tal y como los conocemos. Aunque, según los datos proporcionados por el magistrado, hay estudios que señalan que el 49% de la población cree que los jueces tienen los días contados por el impacto de la Inteligencia Artificial, no sucede lo mismo con los abogados.



El magistrado ha sostenido que la degradación de la Administración de Justicia explica que el ciudadano tenga simpatía por un juez robótico. La gente prefiere un juez robot que un juez que pueda tener cualquier sesgo ideológico. “La crítica social tan extendido sobre el defectuoso y anómalo funcionamiento de la Administración de Justicia está acelerando la creencia de que el problema se arreglará con jueces robot”, ha manifestado. En el caso de los abogados es diferente. El trato personal del abogado no es susceptible de ser sustituido por la Inteligencia Artificial. Hay una labor de mediación, de conciliación, de negociación; hay un contacto sensación de proximidad que tiene el cliente que no puede sustituir una máquina. Además, añade, el abogado se enfrenta a dilemas éticos a los que una máquina no podría hacer frente.

Marchena ha expresado su admiración y, al mismo tiempo, su recelo por la aplicación que la Inteligencia Artificial puede tener en los procesos judiciales. Se han creado, legitimado y normalizado herramientas que hacen pronósticos sobre la viabilidad de las demandas de acuerdo a la jurisprudencia. Y se están utilizando estos métodos predictivos que, en ocasiones, incorporan sesgos. En Estados Unidos ya se ha advertido que “la máquina tenía sesgos racista, sesgo hembrista y clasista. La verdad que alimenta el algoritmo es una realidad estadística”, ha subrayado. Por eso, aunque no tiene sentido negarse a utilizar la IA, se deben extremar las cautelas para respetar los derechos del justiciable, ha defendido.



El magistrado reconocido por, entre otros grandes juicios, el del Caso Procés, ha subrayado que el primer problema, ante la justicia robótica, es que no hay doble instancia. ¿Como recurres algo que tiene el 97% de la capacidad de acierto? ¿Qué sucede si el programador del algoritmo ha olvidado sentencias decisivas?. Marchena sostiene que habrá que incorporar informáticos a los despachos y se sebe garantizar el derecho a la trazabilidad. Los algoritmos saben responder pero no explicar. El magistrado ha arrojado una serie de preguntas:  ¿Qué hacemos con el derecho a una resolución motivada?. Y ¿qué hacemos con el principio de publicidad? ¿Qué hacemos con el derecho a la presunción de inocencia? ¿Cómo te defiendes de una máquina?

Marchena ha insistido en que la IA debe ser una aliada pero que abandonarnos a la IA puede provocar que nuestra capacidad creativa y de concentración se vaya mermando. La verdad está cabalgando a 140 caracteres y esto está generando una sociedad superficial instalada en la credulidad colectiva. «Solo escucho a aquel que refuerza mis planteamientos. Hay una suerte de polarización que está originando y no se puede combatir con 140 caracteres. Nos va a provocar una pérdida de lo que antes considerábamos esencial».

Click para comentar

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *