La irrupción de la IA generativa recientemente ha transformado nuestro día a día. Muchos recurrimos a herramientas como ChatGPT para consultas concretas, una especie de “Google” avanzado. Eso sí, a veces “miente”, por lo que no es completamente fiable.
Este artículo ofrece una explicación sencilla del funcionamiento de la IA generativa y su evolución en el uso empresarial. Para ello, usaremos simplificaciones técnicas que ayuden a comprender el tema de forma accesible.
1. Funcionamiento de los LLMs (Large Language Models)
La IA generativa crea contenido nuevo (texto, imágenes, código...) a partir de patrones aprendidos de grandes volúmenes de datos (a diferencia de otras IAs). Aquí nos centraremos en la generación de texto mediante modelos LLM.
Dos conceptos clave: la base de datos vectorial y el prompt.
Los LLMs se entrenan con grandes cantidades de texto extraído de internet, creando una base de datos vectorial de “palabras” relacionadas entre sí por su cercanía sintáctica y semántica. Así, “perro” está más cerca de “gato” que de “piña”.
Cada sesión con un LLM comienza con un prompt (texto inicial). El modelo identifica las palabras clave mediante un proceso llamado attention, busca en su base la palabra más “cercana”, la concatena al texto. Repite el proceso, construyendo la respuesta paso a paso.
El LLM no “entiende” lo que se le pregunta, solo concatena palabras que extrae de la base de datos a partir del prompt (con algo de aleatoriedad, lo que mejora la respuesta). Así responde preguntas, resume textos, traduce, etc. Pero sus respuestas dependen de la calidad del entrenamiento, el proceso de attention y el azar introducido. ¿Cómo mejorar la precisión?
2. Sistemas RAG
Una forma de mejorar es incorporar conocimiento específico. Si, por ejemplo, queremos saber las obligaciones del vendedor en la regla Incoterms CIP, un sistema RAG puede buscar previamente ese contenido en un PDF aportado (como el manual Incoterms), extraer las secciones relevantes e incluirlas en el prompt.
3. Sistemas basados en internet
Otra opción es usar internet como fuente de información. El modelo, tras aplicar attention al prompt, lanza una búsqueda online. Con los resultados obtenidos, genera el prompt que pasa al LLM. Es como el caso anterior, pero en lugar de un PDF, usa resultados web. Así funcionan herramientas como Perplexity.
4. Acciones específicas
Los LLMs también pueden ejecutar acciones específicas. Supongamos que queremos una cotización de un flete y que modelo está conectado a un sistema de cotizaciones. Pasamos este prompt:
“Quiero una cotización de un flete para el día 12 de mayo entre Valencia y Jeddah para un contenedor 20 pies”.
El LLM extrae la información del día, origen, destino y carga. Con esta información llama a un programa de cotizaciones y devuelve los datos de la cotización.
5. Sistemas basados en Agentes
Estos procesos que ocurren antes o después del procesamiento del LLM se denominan agentes, y pueden:
• Aportar información al LLM.
• Ejecutar acciones a partir de información que el LLM ha extraído.
Esto permite a los LLMs integrarse e interactuar con el entorno operativo.
6. Evolución de los LLMs dentro del entorno empresarial logístico
Los LLMs evolucionan hacia mayor precisión y utilidad práctica:
• Uso de conocimiento fiable y contextualizado (reglas Incoterms, aranceles en tiempo real...).
• Acceso a información local o interna (ERP, contratos, etc.).
• Integración con procesos empresariales (cotizaciones, pedidos...).
• Capacidad de tomar decisiones o secuenciar tareas de forma inteligente.
Recomendación final: seguir de cerca las novedades en este ámbito, en constante evolución. Avances en Sistemas Multiagente, Model Context Protocols (MCPs) y modelos de razonamiento.