El presidente de la Corte Suprema, Ricardo Blanco Herrera, encabezó una nueva ceremonia de juramento de abogados y abogadas, oportunidad en que reflexionó sobre los desafíos de la inteligencia artificial en los sistemas de justicias.
“A nivel internacional, la integración de esta inteligencia en la justicia es variada y notable. Vemos sistemas capaces de predecir la reincidencia criminal, programas que ayudan a formular estrategias legales basándose en análisis de precedentes y asistentes para la redacción de toda clase de textos. Estos avances podrían constituir pasos decisivos hacia una justicia más informada, equitativa y veloz. Podría permitirles a abogados y ciudadanos acceder a decisiones judiciales y precedentes con una gran rapidez y precisión. Asimismo, permitiría a los jueces el desarrollo de líneas jurisprudenciales consistentes entregando una mayor certeza jurídica”, explicó en la jornada en que juraron 88 profesionales.
La autoridad judicial destacó que se debe ser conscientes de que este avance tecnológico puede potenciar sesgos y estereotipos. “No obstante estos beneficios, somos conscientes de los riesgos inherentes a estos avances tecnológicos. La Inteligencia Artificial, alimentada por datos, puede perpetuar sesgos existentes, planteando cuestiones críticas sobre la imparcialidad y la ética de estas herramientas. Estos sesgos se originan principalmente de dos fuentes: los datos con los que se trabaja y las decisiones de diseño tomadas por los programadores. Por ejemplo, si un algoritmo se usa para evaluar la probabilidad de reincidencia de un delincuente, y se utilizan datos históricos de un sistema judicial que ha mostrado prejuicios contra ciertos grupos de la sociedad, existe un riesgo alto de que la Inteligencia Artificial perpetúe esos mismos prejuicios. En este caso, el algoritmo podría predecir incorrectamente una mayor probabilidad de reincidencia para individuos de ciertos grupos sociales, basándose no en su situación individual, sino en tendencias discriminatorias previas. Los sesgos en este ámbito también pueden ser producto de decisiones subjetivas de quienes programan. Por ejemplo, si se decide, consciente o inconscientemente, dar más peso a ciertas variables sobre otras al diseñar un algoritmo de sentencia, esto podría influir en los resultados de una manera que refleje sus propias creencias, prejuicios o estereotipos”.
Por lo tanto, el presidente de la Corte Suprema destacó la “necesidad imperativa de legislar y discutir de manera exhaustiva la integración de esta inteligencia en el campo legal”.
“La verdadera esencia de la justicia no radica en los algoritmos, en la tecnología o en los datos, sino en la comprensión humana y en el compromiso con la sociedad. La tecnología es una herramienta poderosa, pero la empatía, la ética y el juicio humano son irremplazables. Que la era digital no nos desvíe de nuestra misión fundamental: servir y proteger a las personas, garantizando un acceso justo y equitativo a la justicia para todos”, dijo.