Nuestra actualidad se encuentra en constante evolución y la Inteligencia Artificial (IA) ha demostrado su capacidad para revolucionar industrias enteras y mejorar nuestra calidad de vida en muchos aspectos. En nuestra interconexión global es una realidad que las organizaciones ya están trabajando en implantar IA con objetivos diversos, entre ellos la mejora de procesos y en la forma de hacer negocios. La regulación de la IA podría establecer normas, garantizando así, que la tecnología se utilice en beneficio de la sociedad, con una normativa equilibrada que promueva el progreso tecnológico responsable y proteja los intereses y derechos de las personas.
En el contexto de la ciberseguridad y el fraude en línea (online), se ha incrementado cada vez más el uso malicioso de la IA para lanzar ataques de phishing mas sofisticados y escalables. Además, se aprovechan los llamados “deepfakes” para suplantar los datos biométricos de sus victimas y apoderarse de sus registros y cuentas.
La Inteligencia Artificial (IA) es un conjunto de tecnologías de rápida evolución que puede generar un amplio espectro de beneficios económicos y sociales a todos los sectores, mediante la mejora de la predicción, la optimización de las operaciones y de la asignación de los recursos y la personalización de la prestación de servicios. La Inteligencia Artificial puede facilitar la consecución de resultados positivos desde el punto de vista social y medioambiental, así como proporcionar ventajas competitivas esenciales para las empresas y la economía de cualquier país, especialmente utilizada adecuadamente en la región centroamericana y latinoamericana. El desarrollo de estas tecnológicas genera multitud de casuísticas que plantean cuestiones de legalidad y regulación jurídica vigente.
En este contexto, será importante tener una noción general de las siguientes técnicas
- Machine Learning: Implica que los sistemas aprendan a extraer patrones y conclusiones de una entrada de datos con resultados que les permitan, de forma autónoma, replicarlos empleando otros conjuntos de datos, como ocurre con el software de reconocimiento de imágenes que reconoce formas, figuras, objetos, etc.
- Deep Learning: Lleva el Machine Learning un paso más allá y permite el aprendizaje continuo y que evoluciona en el tiempo con información recogida del entorno imitando el funcionamiento propio del cerebro humano a través de una serie de capas neuronales que recogen diversos aspectos de los datos de entrada, procesan la información y producen un valor o decisión a aplicar.
En lo que respecta a nosotros, los profesionales del derecho o la abogacía, se discute la necesidad de regulación y establecimiento de los códigos de buenas prácticas para evitar contenciosos procesos relacionados con problemas de interpretación, así como la necesidad de asesoramiento y asistencia legal frente a problemas provocados por esta tecnología.
Tenemos la oportunidad de asumir un rol muy concreto en los procesos de transformación que están experimentando nuestras sociedades, instituciones y mercados, ya que las tecnologías en materia de Inteligencia Artificial son una evidente oportunidad de eficiencia y una herramienta versátil de procesamiento de datos e información para las empresas, generando ventajas competitivas. Sin embargo, también implican riesgos que se materializarán en perjuicios reales si no se regulan ni se gestionan correctamente, teniendo en cuenta los derechos e intereses de todos los colectivos afectados.
En las latitudes europeas se propone un marco reglamentario sobre inteligencia artificial enmarcado en las siguientes tendencias u objetivos:
- Garantizar que los sistemas de IA introducidos y usados en el mercado de la UE sean seguros y respeten la legislación vigente en materia de derechos fundamentales y valores de la UE;
- Garantizar la seguridad jurídica para facilitar la inversión e innovación en Inteligencia Artificial;
- Mejorar la gobernanza y la aplicación efectiva de la legislación vigente en materia de derechos fundamentales y los requisitos de seguridad aplicables a los sistemas de IA;
- Facilitar el desarrollo de un mercado único para hacer un uso legal, seguro y fiable de las aplicaciones de IA y evitar la fragmentación del mercado.
Las tendencias regulatorias europeas actuales siguen un enfoque que distingue el nivel de riesgo generados con el uso de IA:
- Riesgo alto;
- Riesgo mediano;
- Riesgo bajo o mínimo.
Por su parte, el Instituto Nacional de Estándares y Tecnología de los Estados Unidos (NIST, por sus siglas en inglés) ha publicado el Marco de Gestión de Riesgos de la IA para orientar a las organizaciones que diseñan, desarrollan, despliegan o utilizan sistemas de IA para ayudar a limitar los numerosos riesgos de estas tecnologías. Este marco no es vinculante, por lo cual, las compañías podrán adherirse de manera voluntaria.
Las tendencias en nuestra región se van vislumbrando en los siguientes aspectos:
- La privacidad y la seguridad los datos: A medida que la IA utiliza o se nutre de grandes cantidades de datos, es crucial garantizar que estos se recopilan y utilizan de manera ética y legal. Esto incluye garantizar que los individuos den su consentimiento para compartir sus datos, y que se protejan adecuadamente contra posibles violaciones o ataques. Diseñar, junto a especialistas en protección de datos y seguridad de la información, un esquema de mejores prácticas en la gestión de riesgos para garantizar la confidencialidad, tanto de la información de la organización, como de terceros. Las mejores prácticas deberían incluir técnicas para que los usuarios aprendan a implementar mecanismos de anonimización y pseudoanonimizacion de datos para garantizar la protección de la información de la organización y terceros.
- Analizar el nivel de conocimiento de los usuarios y diseñar planes de concientización y conocimiento de la IA generativa: Diseñar e Implementar campañas de comunicación especificas sobre IA generativa de texto a nivel de sus organizaciones; implementar programas de capacitación continua para distintos niveles de usuarios; capacitar sobre políticas y prácticas de gestión de riesgo adaptadas a la IA generativas de texto; enfatizar el papel de las personas en la validación y verificación de los textos generados por IA; establecer equipos multidisciplinarios de consulta para que puedan abordar el estudio de casos de uso complejos.
- Responsabilidad en caso de accidentes o errores: Gradualmente, la IA se utiliza en aplicaciones críticas, como el diagnóstico médico y el control de vehículos autónomos. En este sentido, será esencial establecer los protocolos de investigaciones y responsables en caso de un accidente o error.
- Aspectos éticos de la IA: Conforme a la evolución de la IA, ya que irá ejecutando decisiones automatizadas, es importante asegurarse de que estas decisiones no estén basadas en prejuicios o estereotipos y de que no se discriminen a ciertos grupos de personas.
La IA está cada vez más presente en nuestras actividades de la vida diaria. Es una herramienta que puede mejorar y optimizar procesos. La IA Generativa es un tipo especifico de inteligencia artificial diseñada para crear contenido diverso, incluyendo texto, imágenes, audio, video. Sin embargo, a medida que la IA se desarrolla y se utiliza en una variedad de campos, también surgen preocupaciones legales y éticas que deben ser abordadas. Muchos países están desarrollando normativas jurídicas específicas para abordar los desafíos legales relacionados con la IA, lo que requerirá marcos legales flexibles y adaptables para poder evolucionar junto con la tecnología. Lo anterior incluye aspectos mencionados a lo largo de este articulo:
- La protección de datos personales;
- La prevención de sesgos y discriminaciones;
- La seguridad de los sistemas de datos.
Todo esto implica crear un ecosistema funcional donde se articulen infraestructuras 5G, altas bandas anchas, sistemas cloud, edge computing, generación de contenido, desarrollo de aplicaciones, ciberseguridad y marco regulatorio, la coordinación con los agentes económicos de los diversos sectores de nuestros países, entre otros.
En línea con ello, la UNESCO público el pasado mes de julio 2023, su metodología de evaluación de la preparación para la IA, una herramienta de diagnóstico para ayudar a los gobiernos a garantizar que la Inteligencia Artificial se desarrolle y despliegue éticamente, en línea con su recomendación sobre la ética de la Inteligencia Artificial, adoptada por unanimidad por sus Estados Miembros en noviembre de 2021.
En este contexto, se trata de una evaluación exhaustiva que pone a prueba la adecuación y pertinencia de las leyes y políticas nacionales existentes para enmarcar positivamente el desarrollo tecnológico y calibra las capacidades técnicas de los sectores públicos y productivos.
Los países se encuentran en diferentes etapas de preparación para aplicar la recomendación de la UNESCO sobre la ética de la IA y no existe un enfoque único para todos. También existen diferentes preferencias y condiciones sociales, umbrales de riesgo y entornos de innovación. La herramienta desarrollada por la UNESCO tiene en cuenta estas especificidades, a la vez que aporta una perspectiva internacional. En este año 2023, cincuenta países colaboraran con la UNESCO en la aplicación de la herramienta de evaluación, entre ellos se encuentran Costa Rica, Republica Dominicana, Antigua y Barbuda, Cuba y Barbados. Los informes de los países, basados en la evaluación diagnostica se publicarán en el Observatorio Ético de la IA de la UNESCO que se presentará en las próximas semanas y se pondrá en marcha con el Instituto Alan Turing (Reino Unido). El principal objetivo es ser un portal de transparencia en línea para los últimos datos y análisis sobre el desarrollo ético y uso de la IA en todo el mundo, además de una plataforma para compartir buenas prácticas.
Como firma legal, nos sumamos a los esfuerzos de promoción, concientización y divulgación de la recomendación de la UNESCO sobre la ética de la Inteligencia Artificial, que conforma el primer marco mundial para el uso ético de la misma y orienta a los países sobre cómo maximizar los beneficios de la IA y reducir los riesgos que esta conlleva. Estos esfuerzos contienen valores y principios, pero también recomendaciones políticas detalladas en todos los ámbitos pertinentes.
La UNESCO está especialmente preocupada por las cuestiones éticas que plantean estas innovaciones en los ámbitos de la lucha contra la discriminación y los estereotipos, incluidas las cuestiones de género, la fiabilidad de la información, la privacidad y la protección de datos, los derechos humanos y el medio ambiente.
Nuestro articulo se hace eco al llamado de la UNESCO a través de su directora general Audrey Azoulay con cuyas líneas concluimos la visión de este: “El mundo necesita normas éticas más estrictas para la inteligencia artificial: este es el gran reto de nuestro tiempo. La recomendación de la UNESCO sobre la ética de la IA establece el marco normativo apropiado. Todos nuestros Estados miembros aprobaron esta recomendación en noviembre de 2021 y es hora de aplicar las estrategias y normativas a nivel nacional. Tenemos que predicar con el ejemplo y asegurarnos de que cumplimos los objetivos de esta”.