Disrupción digital de los medios de prueba

José Pablo Valverde

José Pablo Valverde

A principios del mes de febrero se llevó a cabo el XV Congreso de Arbitraje Internacional CAI Costa Rica 2024. Dicho evento reunió a las principales figuras del arbitraje iberoamericano para discutir las novedades, experiencias y tendencia del arbitraje internacional.

Este 2024, tuve el honor de moderar uno de los últimos paneles del evento, denominado Disrupción digital e Integridad Medios de Prueba, un tema que, definitivamente, se encuentra en boga, máxime con la incursión de la Inteligencia Artificial (IA), e incluso la Inteligencia Artificial Generativa, con la que se permite la creación y reproducción de imágenes, videos, reproducción de voces, entre otros.

En dicho evento se realizó un análisis acerca de los árbitros robot y si los arbitrajes debían ser resueltos o no, por este tipo de árbitros. Esta discusión me trajo a la cabeza la imagen de Temis, la Diosa de la Justicia, figura que cuenta con una balanza en sus manos perfectamente equilibrada y una venda en sus ojos. Dicha imagen podría perfectamente aplicar a los árbitros robots, en el sentido de que, en un conflicto planteado ante estos, es evidente que, en la resolución del conflicto, el robot considerará los hechos suscitados entre las partes, los antecedentes y muy probablemente cómo se han resuelto en el pasado. Lo que no hará el árbitro-robot es aplicar criterios subjetivos, interpretaciones personales, raciocinios, ni la sana crítica.

Actualmente, en algunas latitudes, como por ejemplo en China, se ha hecho uso de la IA para solución de controversias judiciales. Un caso se dio en la cuidad de Hangzhou, donde 10 deudores no pudieron afrontar sus obligaciones dinerarias, por lo que fueron parte de un proceso judicial en el que en una audiencia única de 30 minutos y ante la IA, se procedió a resolver la controversia planteada.

El uso de los árbitros-robot es una alternativa que se ha venido implementando en casos sencillos, con la finalidad de lograr una celeridad en la tramitación de los procesos y ser una ayuda en la mora judicial. No obstante, su uso en casos complejos presenta serios retos cuando es necesario el uso de la lógica, la sana crítica, el raciocinio e interpretaciones, cualidades que son parte de un juez humano que utiliza en análisis y estudio al dilucidar una controversia.

Otro de los elementos desarrollados en la conferencia citada, fue el uso de medios de prueba falsos o adulterados mediante la IA Generativa. La IA Generativa como se indicó, es un tipo de inteligencia artificial que puede crear ideas y contenidos nuevos, tales como conversaciones, historias, imágenes, videos y música. Así, mediante el uso de esta herramienta se puede crear falsamente una conversación o un video que, sin lugar a dudas, podría tener un impacto directo en una de las tesis de alguna de las partes involucradas en un juicio, convirtiéndose posteriormente dicha prueba en un elemento trascendental para la resolución de la controversia.

Actualmente, el Silicon Valley Arbitration & Mediation Center (SVAMC), un centro de arbitraje y mediación especializado en el sector de la tecnología, anunció en julio del 2023 el desarrollo de una “Guía sobre el uso de Inteligencia Artificial en arbitraje internacional”. Este centro de arbitraje y mediación fue fundado en el 2014 en California, Estados Unidos, y además de la resolución de conflictos, publican anualmente The Tech List, que es un ranking de los mejores árbitros y mediadores a nivel mundial con experiencia particular en el sector tecnológico. Esta guía se creó con el objetivo de ofrecer una serie de “mejores prácticas”, sobre el uso de herramientas de Inteligencia Artificial para todas las partes involucradas en un arbitraje. El primer borrador fue publicado en agosto del 2023, y desde entonces, se lanzó un periodo de comentarios y sugerencias de parte de abogados, estudiantes e incluso centros de resolución de disputas internacionales, para incluir dichos cambios en la versión final.

Esta guía es la primera que contendría la implicación ética y práctica de integrar en el mundo jurídico, las herramientas de IA. Dicha guía cuenta con 3 capítulos y los principales elementos que menciona son:

    • Realiza una definición amplia de Inteligencia Artificial;
    • Los participantes de un proceso arbitral deben de conocer y comprender los usos, limitaciones y riesgos de las aplicaciones de la IA, así como mitigarlos, en la medida de los posible;
    • Se hace especial énfasis en la protección de la confidencialidad, pues el uso adecuado de IA en un arbitraje también debe resguardar la confidencialidad de la información;
    • Existe una discusión acerca del deber de revelación del uso de IA, de esa manera se crearon dos opciones y aún se está en análisis de cuál adoptar. La opción A dice que la revelación del uso de herramientas de IA depende del uso que se le da, el impacto que podría tener en el proceso y si es una herramienta inesperada. En cambio, la opción B determina que, por regla general, no es una obligación revelar el uso de esta tecnología, excepto si se ha usado para preparar evidencia, escritos importantes, opiniones de expertos;
    • Prohíbe a los árbitros la delegación de la toma de decisiones a una herramienta de IA y tampoco podrá basar su decisión en información generada por IA que no conste en el expediente.

Es claro que la disrupción de la IA en los procesos judiciales hará necesariamente que los Centros Arbitrales (locales e internacionales) y las normativas procesales de cada jurisdicción local, regulen la intromisión de la IA, establezcan sanciones para aquellas partes que conocedoras de la situación, pretendan la inclusión de una prueba adulterada o generada mediante IA en beneficio de sus intereses, sanciones que incluso deben ser analizadas desde la perspectiva de la ética profesional.