Un asistente de analítica en lenguaje natural sobre datos del lakehouse, orquestado con LangGraph y Databricks Model Serving, y aterrizado con Qdrant en Azure Container Apps.
LangGraph
Orquestación de agentes
Databricks
Model Serving + Unity Catalog
Qdrant
Vector store en Azure
MCP
Herramientas SQL + RAG
Un proveedor de analítica de datos financieros necesitaba un asistente IA en producción que permitiera a sus analistas hacer preguntas en lenguaje natural sobre datos lakehouse gobernados. Construimos un agente basado en LangGraph que llama a Databricks Model Serving para inferencia LLM, Qdrant en Azure Container Apps para retrieval vectorial y un conjunto de herramientas SQL/RAG expuestas vía MCP, todo conectado al backbone existente de identidad y observabilidad.
Cliente
Proveedor de analítica de datos financieros
Industria
IA y Plataformas de Datos
Alcance
Agente RAG + vector store + herramientas MCP + integración serving
Foco técnico
LangGraph, Databricks Model Serving, Qdrant, MCP, Python, TypeScript
Poner IA sobre datos bancarios gobernados exige identidad estricta, respuestas trazables y una integración estrecha con el lakehouse existente.
Los analistas deben confiar en cada respuesta con cita clara hacia tablas gold y documentos.
Model serving debe ser confiable, monitoreado y alineado con identidad grado banca.
El asistente necesita SQL, RAG y herramientas estructuradas — no solo un endpoint de chat completion.
Entregamos una arquitectura de producción con las primitivas adecuadas para IA gobernada sobre datos lakehouse.
Agente con estado que orquesta retrieval, llamadas a herramientas y formateo de respuesta.
Model serving administrado en Databricks para inferencia gobernada de baja latencia.
Vector store para retrieval RAG con autoescalado en Azure Container Apps.
Capa de tooling expuesta vía MCP para que el agente ejecute SQL gobernado y retrieval documental.
Integrada al SSO Auth0 + Azure de la plataforma puente para auditabilidad de extremo a extremo.
El asistente corre sobre datos lakehouse gobernados y entrega a los analistas una interfaz de lenguaje natural confiable a su dominio.
Aterrizado
RAG sobre datos gobernados
Producción
Lakehouse model serving
MCP-native
Herramientas SQL + RAG reutilizables
Identity-aware
Conectado al SSO de la plataforma