Design and implementation of an MCP-based local LLM assistant for unified Atlassian workflows

Other authors

Universitat Politècnica de Catalunya. Departament d'Enginyeria de Serveis i Sistemes d'Informació

B38 Iberia

Ibáñez Vásquez, Eduardo

Ayala Martínez, Claudia Patricia

Publication date

2026-01-22



Abstract

L'enginyeria de software moderna depèn de cadenes d'eines fragmentades que interrompen la concentració dels desenvolupadors i redueixen la productivitat. A Build38, les dades crítiques del projecte estan aïllades dins de Jira, Confluence i Bitbucket, forçant els desenvolupadors a navegar manualment per múltiples interfícies per consolidar la informació. Aquesta tesi presenta AIpaca, un assistent d'IA local que unifica aquestes eines en un únic punt d'accés. El sistema utilitza el Model Context Protocol (MCP) per proporcionar una interfície uniforme per a la interacció amb les eines, i Retrieval-Augmented Generation (RAG) per permetre consultes en llenguatge natural. Per garantir la sobirania de les dades mantenint la flexibilitat, l'arquitectura admet dos modes d'operació: una inferència LLM totalment local mitjançant Ollama per a una estricta privadesa de les dades, i una integració amb l'IDE que serveix com a passarel·la segura per als LLMs autoritzats. El projecte ha lliurat un MVP funcional amb connectors validats per a la gestió de tasques i repositoris de codi. La validació confirma que l'arquitectura de doble transport connecta amb èxit les dades locals amb models d'IA externs, permetent la recuperació del context dins de l'IDE i l'ús d'eines enfocades a la productivitat. No obstant això, l'avaluació del mode local revela un compromís significatiu entre privadesa i rendiment: l'execució estricta on-premises en maquinari de consum introdueix colls d'ampolla de latència que limiten la capacitat de resposta interactiva. Aquesta arquitectura demostra un compromís viable per a entorns segurs proporcionant un marc que pot transicionar entre una privadesa local estricta i un rendiment extern optimitzat a mesura que evolucionen les necessitats de hardware o seguretat.


Modern software engineering relies on fragmented toolchains that disrupt developer focus and reduce productivity. At Build38, critical project data is isolated within Jira, Confluence, and Bitbucket, forcing developers to manually navigate multiple interfaces to consolidate information. This thesis presents AIpaca, a local AI assistant that unifies these tools into a single access point. The system uses the Model Context Protocol (MCP) to provide a uniform interface for tool interaction, and Retrieval-Augmented Generation (RAG) to enable natural language querying. To ensure data sovereignty while maintaining flexibility, the architecture supports two operating modes: a fully local LLM inference through Ollama for strict data privacy, and an IDE integration that serves as a secure gateway for the authorized LLMs. The project delivered a functional MVP with validated connectors for task management and code repositories. Validation confirms that the dual-transport architecture successfully bridges local data with external AI models, enabling seamless context retrieval within the IDE as well as utilization of productivity-focused tooling. However, evaluation of the local mode reveals a significant trade-off between privacy and performance: strict on-premises execution on consumer hardware introduces latency bottlenecks that limit interactive responsiveness. This architecture demonstrates a viable compromise for secure environments by providing a framework that can transition between strict local privacy and optimized external performance as hardware or security needs evolve.


La ingeniería de software moderna depende de cadenas de herramientas fragmentadas que interrumpen la concentración de los desarrolladores y reducen la productividad. En Build38, los datos críticos del proyecto están aislados dentro de Jira, Confluence y Bitbucket, obligando a los desarrolladores a navegar manualmente por múltiples interfaces para consolidar la información. Esta tesis presenta AIpaca, un asistente de IA local que unifica estas herramientas en un único punto de acceso. El sistema utiliza el Model Context Protocol (MCP) para proporcionar una interfaz uniforme para la interacción con las herramientas, y Retrieval-Augmented Generation (RAG) para permitir consultas en lenguaje natural. Para garantizar la soberanía de los datos manteniendo la f lexibilidad, la arquitectura admite dos modos de operación: una inferencia LLM totalmente local a través de Ollama para una estricta privacidad de los datos, y una integración con el IDE que sirve como pasarela segura para los LLMs autorizados. El proyecto ha entregado un MVP funcional con conectores validados para la gestión de tareas y repositorios de código. La validación confirma que la arquitectura de doble transporte conecta con éxito los datos locales con modelos de IA externos, permitiendo la recuperación fluida del contexto dentro del IDE además de la utilización de herramientas enfocadas en la productividad. Sin embargo, la evaluación del modo local revela un compromiso significativo entre privacidad y rendimiento: la ejecución estricta on-premises en hardware de consumo introduce cuellos de botella de latencia que limitan la capacidad de respuesta interactiva. Esta arquitectura demuestra un compromiso viable para entornos seguros proporcionando un marco que puede transicionar entre una privacidad local estricta y un rendimiento externo optimizado a medida que evolucionan las necesidades de hardware o seguridad.

Document Type

Bachelor thesis

Language

English

Publisher

Universitat Politècnica de Catalunya

Recommended citation

This citation was generated automatically.

Rights

Restricted access - confidentiality agreement

This item appears in the following Collection(s)