A QUÉ SE ENFRENTAN ABOGADOS Y CONSULTORES ANTE LA AI ACT
RETOS Y CONOCIMIENTOS TÉCNICOS NECESARIOS
El Reglamento de Inteligencia Artificial ya es ley. El viernes se publicó en el Boletín Oficial de la Unión Europea y ya empieza a correr el reloj de su aplicación obligatoria. Mi objetivo en este artículo es que examinemos algunas de las tareas a las que se enfrentarán los abogados y consultores que se dediquen a aplicar la norma.
Evaluar si el software en cuestión cumple con la definición de un sistema de IA según el reglamento. Para ello, es necesario tener un conocimiento básico de qué constituye un sistema de IA según el reglamento, incluyendo la capacidad de diferenciar entre software tradicional y sistemas que utilizan técnicas de IA como el aprendizaje automático, redes neuronales, etc.
Entender las distinciones entre diferentes tipos de IA, como por ejemplo, IAs de alto riesgo y modelos de IA de uso general. Aquí sería útil comprender las arquitecturas de modelos, capacidades y limitaciones de los sistemas de IA.
Determinar el rol de la entidad según el reglamento: identificar si la entidad actúa como proveedor, responsable de despliegue, importador, distribuidor, etc. En este caso, se necesita un entendimiento básico de cómo funcionan los sistemas de IA y las diferentes tecnologías que se utilizan. También es necesario el conocimiento de la cadena de valor de la IA para identificar quién desarrolla, prueba, despliega y opera los sistemas de IA.
Clasificar la categoría de riesgo del sistema de IA: ¿Está mi IA prohibida? ¿Es de alto riesgo? ¿De riesgo limitado o mínimo? En el caso de sistemas de IA de alto riesgo, el Reglamento establece algunas excepciones, como por ejemplo:
Que el sistema de IA esté destinado a realizar una tarea de procedimiento limitado. ¿Qué significa "procedimiento limitado"?
Que el sistema de IA esté destinado a mejorar el resultado de una actividad humana previamente realizada. ¿Qué significa "mejorar el resultado"?
Estos son solo dos ejemplos de lo que nos vamos a enfrentar a la hora de interpretar la ley en el contexto de la realidad de la Inteligencia Artificial. En este caso, nos haría falta conocer lo que implica una tarea de procedimiento limitado, generalmente referida a una función o tarea específica dentro de un rango operativo confinado. Para determinar si mejora el resultado de una actividad humana, tendríamos que entender cómo un sistema de IA puede optimizar o aumentar la eficacia de las tareas humanas existentes, lo cual requiere una evaluación de la mejora en términos de eficiencia, precisión o resultados generales.
Identificar cuándo se cumplen las medidas requeridas para cada caso. Por ejemplo, en los sistemas de IA de alto riesgo, es necesario saber detectar sesgos, lagunas y errores en los datos, llevar a cabo medidas de gestión de riesgos, y trasladar los aspectos técnicos a documentación técnica, entre otros. Aquí es importante conocer las distintas etapas del dato y su funcionamiento: datos de entrenamiento, datos de validación, de entrada, y de prueba o test. Esto incluye comprender cómo cada etapa puede afectar el rendimiento del modelo.
En definitiva, derecho y aspectos técnicos de la IA se fusionan. Muchas de las tareas las realizaremos con los ingenieros, pero quienes daremos el visto bueno de cumplimiento seremos los abogados y consultores con conocimientos de derecho. Para ello, no nos basta solo con saber qué es, por ejemplo, el sesgo según la definición del Reglamento, sino que debemos entender cómo se manifiesta en proyectos de Inteligencia Artificial. Asimismo, muchas de las medidas a implementar serán técnicas y tendremos que determinar si cumplen o no los estándares del Reglamento.
Al sector nos queda mucho trabajo por delante.