
최근 대형 언어 모델(LLM)들은 다양한 외부 도구(예: 계산기, 검색 엔진, 데이터베이스 등)와 연동되어 더 똑똑하게 활용되고 있어요. 특히 Model Context Protocol(MCP) 같은 표준을 통해 수많은 도구들이 LLM에 연결될 수 있게 되었죠.
하지만 여기서 큰 문제가 생깁니다.
"LLM이 사용할 수 있는 도구가 많아질수록, 각 도구의 설명을 모두 프롬프트에 넣어야 하니 프롬프트가 너무 길어지고(=프롬프트 비대화, prompt bloat), 어떤 도구를 써야 할지 결정하는 것도 점점 어려워진다"는 거예요.
"LLM은 점점 더 많은 외부 도구를 효과적으로 활용하는 데 어려움을 겪고 있습니다. 프롬프트가 비대해지고, 도구 선택이 복잡해지기 때문이죠."
기존에는 LLM이 모든 도구의 설명을 한 번에 받아서, 그 중에서 적합한 도구를 직접 고르는 방식이었어요.
이 방식의 문제점은 다음과 같아요:
"프롬프트에 모든 도구 설명을 넣으면, LLM이 도구를 고르는 과정이 복잡해지고, 성능이 저하됩니다."
이 논문에서 제안하는 RAG-MCP는 이름 그대로 Retrieval-Augmented Generation(검색 기반 생성) 방식을 활용해요.
핵심 아이디어는 "LLM이 직접 모든 도구를 고르지 않게 하자"는 거예요.
"RAG-MCP는 도구 탐색 과정을 LLM 바깥으로 분리합니다. LLM은 오직 선택된 도구 설명만 받아, 프롬프트가 대폭 줄어듭니다."
연구진은 MCP stress test 등 다양한 벤치마크 실험을 통해 RAG-MCP의 효과를 검증했어요.
"RAG-MCP는 프롬프트 토큰을 절반 이상 줄이고, 도구 선택 정확도를 3배 이상 높였습니다."
"RAG-MCP는 LLM의 도구 통합을 더 정확하고, 더 확장 가능하게 만들어줍니다."
이 논문은 "LLM이 더 많은 도구를 똑똑하게 쓰려면, 프롬프트를 짧게 유지하고, 도구 선택을 외부에서 도와줘야 한다"는 점을 명확하게 보여줍니다.
앞으로 LLM이 더 똑똑해지고, 더 많은 일을 하게 될수록 RAG-MCP 같은 구조가 점점 더 중요해질 거예요! 🚀