El mundo jurídico “corre” detrás de la inteligencia artificial, ¿logrará alcanzarla?

0
67

La preocupación por el uso adecuado de la inteligencia artificial ocupa, desde hace tiempo, un espacio en primer plano en el mundo jurídico.

Por el Dr. Román Alberto Uez*

Desde situaciones de la vida cotidiana que preocupan a cualquiera de nosotros, como la privacidad de nuestros celulares o su efecto en nuestras mentes, cuestiones complejas relacionadas con el acceso a la justicia y el derecho de ofrecer pruebas, hasta la soberanía de la información.

Sin entrar en debates filosóficos, el sentido práctico puede indicarnos que la normativa surge cuando hay hechos o situaciones cuyos efectos jurídicos son relevantes y que deben ordenarse o moldearse para no perder de vista el fin último del Derecho, que es la paz social.

Esta “paz social” es una construcción colectiva y dinámica, la inserción de la inteligencia artificial en este mundo de normas también debe serlo. Sin embargo, hay muchos desafíos y algunos de ellos son jurídicos.

Prueba de ello es que, alrededor del mundo, se gestan las regulaciones sobre el uso de la tecnología y de la inteligencia artificial.

Así surgió la reciente normativa de la Unión Europea y la regulación china sobre inteligencia artificial, dictada en 2023

En los últimos días, la Oficina de Gestión y Presupuesto (OGP) de la Casa Blanca, instrumentó la primera política dirigida a regular los riesgos en la utilización adecuada de la inteligencia artificial, en el plano federal.

En particular, la OGP de la Casa Blanca, emitió una directiva para que las agencias federales que utilicen inteligencia artificial tomen medidas antes del 1° de diciembre de 2024 y aseguren su uso seguro y los derechos de los ciudadanos.

Esta Directiva continúa el proceso iniciado el 30 octubre de 2023, cuando la Casa Blanca emitió una Orden Ejecutiva sobre el desarrollo y uso seguro y confiable de la inteligencia artificial.

En ese documento, se le otorga “la mayor urgencia a gobernar el desarrollo y el uso de la IA de manera segura y responsable, y por lo tanto está impulsando el enfoque coordinado a nivel de todo el gobierno federal para hacerlo”.

A su vez, se plantean ocho principios rectores y prioridades, que básicamente podrían sintetizarse[1] así: a) La inteligencia artificial debe ser segura y protegida; b) Promover la innovación, la competencia y la colaboración responsables permitirá a los Estados Unidos liderar la IA y desbloquear el potencial de la tecnología para resolver algunos de los desafíos más difíciles de la sociedad; c) El desarrollo y uso responsable de la IA requiere un compromiso de apoyar a los trabajadores estadounidenses, d) Las políticas de IA deben ser consistentes con la promoción de la equidad y los derechos civiles, la igualdad de oportunidades y la justicia, e) Deben protegerse los intereses de los estadounidenses que cada vez más utilizan, interactúan o compran IA y productos habilitados para IA en su vida diaria, f) Se debe proteger la privacidad y las libertades civiles de los estadounidenses a medida que la IA continúa avanzando, g) Se debe gestionar los riesgos del uso de la IA por parte del propio gobierno federal y aumentar su capacidad interna para regular, gobernar y apoyar el uso responsable de la IA para ofrecer mejores resultados para los estadounidenses, h) El gobierno federal debe liderar el camino hacia el progreso social, económico y tecnológico global, como lo ha hecho Estados Unidos en épocas anteriores de innovación y cambios disruptivos y ejercer un liderazgo eficaz siendo pionero en aquellos sistemas y salvaguardas necesarios para implementar la tecnología de manera responsable, y construir y promover esas salvaguardas con el resto del mundo.

La Orden Ejecutiva ordenó acciones concretas para comenzar el proceso proyectado, como la consulta con las agencias pertinentes, la publicación de un plan que aborde el uso de la tecnología, cumpliendo con las proyecciones de la Orden Ejecutiva previamente emitida por el Presidente Biden.

Es en este marco que, el 28 de marzo, el Vicepresidente Harris anuncia la primera política de la Oficina de Administración y Presupuesto de la Casa Blanca para todo el gobierno, a fin de mitigar los riesgos de la AI y aprovechar sus beneficios.

En esta política, las agencias federales juegan un rol fundamental: identificar y gestionar los riesgos de la IA. Para el 1° de diciembre de 2024, las agencias federales deberán implementar salvaguardas concretas cuando utilicen la IA de una manera que pueda afectar los derechos o la seguridad de los estadounidenses, que deberán ser aplicadas en un espectro amplio, desde la salud y la educación hasta el empleo y la vivienda.

Estas acciones también implicarán el mejoramiento de la transparencia pública en el uso de la AI, la eliminación de barreras para la innovación responsable en IA, la optimización de talentos de la fuerza laboral en IA y fortalecer la gobernanza de la IA.

Esta noticia del mundo nos hace reflexionar sobre los desafíos y sus aristas jurídicas en los diversos planos del derecho que también enfrentan nuestro país, el resto de América en general y el mundo entero.

Todos los principios rectores planteados por el Presidente Biden, traslucen retos que enfrentamos todos los días, como Estado, como ciudadanos, como trabajadores, como consumidores, como grupos vulnerables, como dueños de datos y se podría seguir ejemplificando.

Lo cierto es que el panorama nos alienta a construir y contribuir a un contexto legal que preserve los riesgos de la tecnología y permita su transformación en una herramienta de cambio.

Como ciudadanos y como juristas, se nos propone una tarea fascinante, seguir creando normas a la velocidad de una escurridiza inteligencia artificial, sin dejar de ver el camino por el que hemos llegado hasta aquí, pero, sobre todo, no olvidar hacia donde vamos.

[1] Orden Ejecutiva de la Casa Blanca, del 30 de octubre de 2023, sobre el desarrollo y uso seguro y confiable de la IA.

*Por el Dr. Román Alberto Uez, Abogado, Magíster en Derecho Administrativo y Magíster en Tecnología, Políticas y Culturas (Tesis en curso)