Design and implementation of an MCP-based local LLM assistant for unified Atlassian workflows

dc.contributor
Universitat Politècnica de Catalunya. Departament d'Enginyeria de Serveis i Sistemes d'Informació
dc.contributor
B38 Iberia
dc.contributor
Ibáñez Vásquez, Eduardo
dc.contributor
Ayala Martínez, Claudia Patricia
dc.contributor.author
Beascoechea Vázquez, Nil
dc.date.accessioned
2026-03-23T10:23:28Z
dc.date.available
2026-03-23T10:23:28Z
dc.date.issued
2026-01-22
dc.identifier
https://hdl.handle.net/2117/459211
dc.identifier
201413
dc.identifier.uri
https://hdl.handle.net/2117/459211
dc.description.abstract
L'enginyeria de software moderna depèn de cadenes d'eines fragmentades que interrompen la concentració dels desenvolupadors i redueixen la productivitat. A Build38, les dades crítiques del projecte estan aïllades dins de Jira, Confluence i Bitbucket, forçant els desenvolupadors a navegar manualment per múltiples interfícies per consolidar la informació. Aquesta tesi presenta AIpaca, un assistent d'IA local que unifica aquestes eines en un únic punt d'accés. El sistema utilitza el Model Context Protocol (MCP) per proporcionar una interfície uniforme per a la interacció amb les eines, i Retrieval-Augmented Generation (RAG) per permetre consultes en llenguatge natural. Per garantir la sobirania de les dades mantenint la flexibilitat, l'arquitectura admet dos modes d'operació: una inferència LLM totalment local mitjançant Ollama per a una estricta privadesa de les dades, i una integració amb l'IDE que serveix com a passarel·la segura per als LLMs autoritzats. El projecte ha lliurat un MVP funcional amb connectors validats per a la gestió de tasques i repositoris de codi. La validació confirma que l'arquitectura de doble transport connecta amb èxit les dades locals amb models d'IA externs, permetent la recuperació del context dins de l'IDE i l'ús d'eines enfocades a la productivitat. No obstant això, l'avaluació del mode local revela un compromís significatiu entre privadesa i rendiment: l'execució estricta on-premises en maquinari de consum introdueix colls d'ampolla de latència que limiten la capacitat de resposta interactiva. Aquesta arquitectura demostra un compromís viable per a entorns segurs proporcionant un marc que pot transicionar entre una privadesa local estricta i un rendiment extern optimitzat a mesura que evolucionen les necessitats de hardware o seguretat.
dc.description.abstract
Modern software engineering relies on fragmented toolchains that disrupt developer focus and reduce productivity. At Build38, critical project data is isolated within Jira, Confluence, and Bitbucket, forcing developers to manually navigate multiple interfaces to consolidate information. This thesis presents AIpaca, a local AI assistant that unifies these tools into a single access point. The system uses the Model Context Protocol (MCP) to provide a uniform interface for tool interaction, and Retrieval-Augmented Generation (RAG) to enable natural language querying. To ensure data sovereignty while maintaining flexibility, the architecture supports two operating modes: a fully local LLM inference through Ollama for strict data privacy, and an IDE integration that serves as a secure gateway for the authorized LLMs. The project delivered a functional MVP with validated connectors for task management and code repositories. Validation confirms that the dual-transport architecture successfully bridges local data with external AI models, enabling seamless context retrieval within the IDE as well as utilization of productivity-focused tooling. However, evaluation of the local mode reveals a significant trade-off between privacy and performance: strict on-premises execution on consumer hardware introduces latency bottlenecks that limit interactive responsiveness. This architecture demonstrates a viable compromise for secure environments by providing a framework that can transition between strict local privacy and optimized external performance as hardware or security needs evolve.
dc.description.abstract
La ingeniería de software moderna depende de cadenas de herramientas fragmentadas que interrumpen la concentración de los desarrolladores y reducen la productividad. En Build38, los datos críticos del proyecto están aislados dentro de Jira, Confluence y Bitbucket, obligando a los desarrolladores a navegar manualmente por múltiples interfaces para consolidar la información. Esta tesis presenta AIpaca, un asistente de IA local que unifica estas herramientas en un único punto de acceso. El sistema utiliza el Model Context Protocol (MCP) para proporcionar una interfaz uniforme para la interacción con las herramientas, y Retrieval-Augmented Generation (RAG) para permitir consultas en lenguaje natural. Para garantizar la soberanía de los datos manteniendo la f lexibilidad, la arquitectura admite dos modos de operación: una inferencia LLM totalmente local a través de Ollama para una estricta privacidad de los datos, y una integración con el IDE que sirve como pasarela segura para los LLMs autorizados. El proyecto ha entregado un MVP funcional con conectores validados para la gestión de tareas y repositorios de código. La validación confirma que la arquitectura de doble transporte conecta con éxito los datos locales con modelos de IA externos, permitiendo la recuperación fluida del contexto dentro del IDE además de la utilización de herramientas enfocadas en la productividad. Sin embargo, la evaluación del modo local revela un compromiso significativo entre privacidad y rendimiento: la ejecución estricta on-premises en hardware de consumo introduce cuellos de botella de latencia que limitan la capacidad de respuesta interactiva. Esta arquitectura demuestra un compromiso viable para entornos seguros proporcionando un marco que puede transicionar entre una privacidad local estricta y un rendimiento externo optimizado a medida que evolucionan las necesidades de hardware o seguridad.
dc.format
application/pdf
dc.language
eng
dc.publisher
Universitat Politècnica de Catalunya
dc.rights
Restricted access - confidentiality agreement
dc.subject
Àrees temàtiques de la UPC::Informàtica::Enginyeria del software
dc.subject
Àrees temàtiques de la UPC::Informàtica::Intel·ligència artificial::Llenguatge natural
dc.subject
Software engineering
dc.subject
Natural language processing (Computer science)
dc.subject
Data protection
dc.subject
Enginyeria de software
dc.subject
Assistent d'IA local
dc.subject
Agent d'IA
dc.subject
Model Context Protocol
dc.subject
MCP
dc.subject
Retrieval-Augmented Generation
dc.subject
RAG
dc.subject
Models de llenguatge extens
dc.subject
LLM
dc.subject
Sobirania de dades
dc.subject
Atlassian
dc.subject
Privadesa
dc.subject
Arquitectura hexagonal
dc.subject
IA
dc.subject
Software engineering
dc.subject
Local AI assistant
dc.subject
AI agent
dc.subject
AI
dc.subject
AI
dc.subject
AI
dc.subject
AI
dc.subject
Enginyeria de programari
dc.subject
Tractament del llenguatge natural (Informàtica)
dc.subject
Protecció de dades
dc.title
Design and implementation of an MCP-based local LLM assistant for unified Atlassian workflows
dc.type
Bachelor thesis


Ficheros en el ítem

FicherosTamañoFormatoVer

No hay ficheros asociados a este ítem.

Este ítem aparece en la(s) siguiente(s) colección(ones)