GUÍA PRÁCTICA PARA QUE NO TE ENGAÑEN CON APLICACIONES DE IA GENERATIVA
Respondemos a las 11 preguntas más comunes sobre Inteligencia Artificial
Cada vez hay más aplicaciones de Inteligencia Artificial para el sector jurídico. Sin embargo, todavía no hay un conocimiento general a nivel de funcionamiento por parte de muchos profesionales del sector de la abogacía sobre las implicaciones que tienen este tipo de sistemas de IA. A continuación, Jorge Barrachina y yo misma desgranamos las preguntas más frecuentes que surgen a la hora de valorar la implementación de la IA generativa en nuestras empresas.
¿La IA aprende? ¿Cómo lo hace?
Versión corta: Aprende pero no aprende en el sentido en que los humanos lo hacemos, donde la comprensión de ideas es parte integral del aprendizaje. Para entenderlo mejor, estableceremos un paralelismo para distinguir los matices:
Un modelo meteorológico, ¿predice el tiempo que va a hacer? No estrictamente, pero tiene un porcentaje de fiabilidad estadística. Combinando distintas variables genera un pronóstico, pero no "aprende" cómo funciona un sistema caótico como el clima. No almacena la información per se, sino que se usa para proyectar un resultado (piensa en una función matemática que depende de múltiples variables).
Con los modelos de lenguaje ocurre algo similar. Se entrenan durante mucho tiempo, a veces meses, probando diferentes combinaciones de parámetros de forma automática. Esto se realiza en una red neuronal profunda para encontrar la mejor configuración posible. Una vez que se alcanza el objetivo, se detiene el entrenamiento. Después se hacen algunos ajustes adicionales para asegurar su seguridad y corregir sesgos antes de publicar el modelo. Este mecanismo es al que nos referimos cuando decimos que el sistema "aprende".
¿Qué son los Large Language Models (LLM)?
En español podríamos llamarlos modelos de lenguaje o grandes modelos de lenguaje. Las aplicaciones de IA generativa como ChatGPT, que nos generan texto y procesan lenguaje, tienen como base estos modelos de lenguaje. Los LLM aprenden patrones de texto a partir de los datos de entrada que se les proporcionan. Si, por ejemplo, les suministramos todos los libros de derecho existentes, aprenderán de esos datos y el modelo resultante se utilizará para aplicaciones de Inteligencia Artificial en el ámbito jurídico.
¿Qué es la IA generativa?
La IA generativa se refiere a sistemas de Inteligencia Artificial capaces de producir contenido de alta calidad como texto, imágenes, audio y vídeos. Por lo tanto, no se limita únicamente a la generación de texto, sino que también abarca la creación de otros tipos de contenido multimedia.
¿Cómo están implementando la inteligencia artificial las empresas jurídicas españolas?
Muchas de las empresas españolas que están lanzando al mercado sus soluciones de inteligencia artificial utilizan los LLMs (Large Language Models) creados por otras empresas, como por ejemplo, el de OpenAI. Es decir, adquieren licencias para utilizar estos LLMs porque ya vienen con una estructura de lenguaje aprendida, lo que les permite generar texto coherente.
En otras palabras, estas empresas optan por comprar la tecnología a terceros porque desarrollar un LLM desde cero es extremadamente costoso y requeriría la movilización de grandes recursos.
Lo parte “innovadora” que incorporan las empresas que utilizan los LLMs de otras es incorporarle información específica del sector. En el caso del sector jurídico, toda la información legal disponible.
¿Hay modelos especializados con información jurídica?
Generalmente, la mayoría de modelos disponibles hoy en día se distinguen en tres categorías:
Modelos fundacionales: Son aquellos que han sido entrenados desde cero. Suelen ser generalistas, aunque algunos de ellos ofrecen cierta especialización en función de la tarea que se quiere llevar a cabo. Hay muy pocos modelos fundacionales debido al alto coste tanto en infraestructura como en poder de cómputo requerido para la fase de entrenamiento y ajuste. Ejemplos: GPT 4 de OpenAI, LLaMA 3 de Meta, Gemini de Google, Sonnet 3.5 de Claude.
Modelos ajustados o "fine-tuneados": A partir de modelos fundacionales, estos modelos se "ajustan" a un nuevo conjunto de datos para especializarse en una tarea o conjunto de tareas específico, o bien en torno a un área de conocimiento particular (también conocido como área de dominio).
Modelos basados en RAG (Retrieval Augmented Generation): Estos modelos combinan la generación de texto con la recuperación de información de una base de datos externa. La literatura académica no es concluyente a la hora de determinar si un sistema basado en RAG es mejor que un sistema basado en un modelo ajustado (fine-tuning). Hay muchos factores a tener en cuenta, aunque generalmente el factor económico y el de privacidad hacen que la preferencia se decante por sistemas RAG, debido a su menor coste y mayor control.
Hoy en día las empresas están apostando por contratar los modelos fundacionales ya hechos y hacer ellos mismos el RAG con información especializada.
¿Qué es el RAG?
Los modelos de lenguaje no tienen “memoria” en sentido estricto. Su conocimiento se limita a la fecha en la que fueron entrenados. Tampoco tienen conocimiento específico por disciplina.
Ante la necesidad de incorporar información más reciente o específica, surge una arquitectura llamada RAG (Retrieval Augmented Generation, en inglés). Esta consiste básicamente en indexar esa nueva información en una base de datos externa al modelo.
Esta arquitectura nos permite hacer uso de información reciente, que podemos pasarle al modelo de lenguaje en forma de contexto, añadiendo así información que no tenía en el momento del entrenamiento.
El patrón RAG es sencillo:
Un usuario realiza una pregunta.
Esa pregunta se transforma en una representación intermedia (embedding) y se consulta la base de datos externa para buscar la información que ayude a responder la pregunta.
Una vez recuperados estos fragmentos de información, se le pasan al modelo de lenguaje en forma de contexto adicional, para que elabore una respuesta teniendo en cuenta el contexto facilitado.
Se envía la respuesta de vuelta al usuario.
¿Almacena información una red neuronal?
Aquí debemos distinguir dos fases:
Primera fase - Entrenamiento: Utilizamos datos que, por ejemplo, podemos extraer de internet para entrenar la red neuronal.
Segunda fase - Almacenamiento: Lo que una red neuronal guarda son patrones que ha aprendido de esos datos, no extractos literales.
Los pesos de la red neuronal almacenan información sobre la probabilidad de que una palabra siga a otra. Por ejemplo, si la red ha procesado muchas veces la frase "la pizza es de queso mozzarella y tomate", entonces la próxima vez que aparezca "la pizza es de", la palabra más probable que siga será "queso".
Por lo tanto, la red neuronal almacena información, pero no en forma de datos brutos, sino como patrones y probabilidades derivados del análisis de grandes cantidades de texto.
¿Qué puede y qué no hacer la IA generativa?
La IA generativa puede procesar rápidamente grandes cantidades de información, reconocer patrones en datos y generar respuestas basadas en su entrenamiento. Es eficiente en tareas repetitivas y automatizables. Sin embargo, no puede realizar análisis profundos y contextuales de situaciones complejas ni comprender plenamente la causalidad como lo hacen los humanos. Carece de juicio crítico y razonamiento ético, por lo que no puede sustituir el pensamiento deliberado y la experiencia humana en campos especializados. Es importante recordar que la IA es esencialmente una máquina de combinación: no crea nada completamente nuevo, sino que recombina la información con la que ha sido entrenada.
¿Por qué la IA comete errores?
Todas las IAs cometen errores. El objetivo es minimizar el error. Por ejemplo, ChatGPT puede cometer más errores que una IA con documentación jurídica si le preguntamos sobre temas legales. Sin embargo, esto no implica que no cometa errores. La presunción siempre debe ser que los comete y que hay que supervisarlos.
Es importante resaltar que aún estamos lejos de que la IA “entienda”. Podemos decir que es capaz de generar respuestas que a ojos de un humano parezcan producidas por otro humano (el famoso Test de Turing). Pero la capacidad de entender como lo hacemos los humanos aún dista de ser una realidad en el campo de la inteligencia artificial.
Por eso, se dice que la inteligencia artificial a veces "inventa cosas". Estas invenciones no son el resultado de un pensamiento real como el de los humanos. Más bien, son errores que ocurren cuando el sistema está creando una respuesta. Es como si el sistema eligiera las palabras equivocadas al construir frases, lo que puede llevar a información inexacta o sin sentido en el texto que produce.
¿Puedo sustituir mi razonamiento con la IA?
No, no puedes sustituir completamente tu razonamiento con la IA actual. Aunque la IA es muy eficiente en procesar información rápidamente y reconocer patrones, carece de la capacidad de análisis profundo y contextual necesaria para tareas complejas como el razonamiento legal. La IA no puede comprender plenamente la causalidad o el contexto como lo hacen los humanos, lo cual es esencial en campos que requieren deliberación y juicio crítico.
¿Qué pasa con mis datos personales y confidenciales?
Este es un tema delicado porque no siempre podemos saber qué está sucediendo dentro de las aplicaciones de IA y cómo implementan el manejo de datos las empresas. Por ejemplo, si vamos a usar una API de terceros, es importante revisar el tratamiento de datos de esa compañía y las garantías de transparencia en el procesamiento de datos que ofrece.
Si vamos a utilizar una arquitectura RAG, debemos asegurarnos de que ningún dato sensible se transmita a un LLM de terceros como OpenAI, Cohere o similares. Hay software como Presidio que nos ayuda en esta tarea de evitar filtrar involuntariamente datos sensibles a un servicio de terceros como OpenAI.
En caso de que nos hagan una demo de aplicaciones de IA generativa, podemos asegurarnos de que se cumplen los estándares de privacidad preguntando y confirmando que tienen las medidas de seguridad implementadas. Por ejemplo, si se trata de una IA generativa con RAG, es pertinente preguntar por las medidas de seguridad adoptadas en este caso específico.
Conclusiones
En este punto, apelamos al sentido común y a una gestión de expectativas razonables. La tecnología ofrece nuevas posibilidades, pero es necesario desarrollar un criterio propio en cuanto al alcance realista de estas. Si necesitáis más información, podéis consultar los siguientes enlaces:
Filtración de datos
Lista actualizada de filtración de datos
Charla técnica sobre Automatización de auditorías técnicas de privacidad