AI 요약
본 기사는 Anthropic이 야심 차게 내놓은 Model Context Protocol(MCP)의 실효성에 의문을 제기하며, 오히려 기존의 명령줄 인터페이스(CLI)가 LLM 시대에 더 적합한 도구임을 역설합니다. 저자는 OpenClaw나 Pi 같은 주요 플랫폼들이 MCP를 지원하지 않는 점을 지적하며, 업계가 'AI 퍼스트'를 증명하기 위해 불필요한 엔드포인트와 인증 체계를 구축하는 데 자원을 낭비하고 있다고 비판합니다. LLM은 이미 Stack Overflow와 GitHub의 방대한 데이터를 통해 CLI 사용법을 숙지하고 있으며, gh pr view 123과 같은 명령어를 직접 수행하는 데 아무런 문제가 없습니다. 또한 CLI는 jq나 grep과 같은 도구와 연계하여 복잡한 데이터를 처리하는 데 탁월한 유연성을 제공하지만, MCP는 JSON 로그를 분석해야 하는 등 디버깅이 어렵고 확장이 제한적입니다. 결국 저자는 새로운 프로토콜을 만드는 대신 검증된 CLI 도구를 활용하는 것이 개발 효율성과 시스템 안정성 측면에서 훨씬 유리하다고 결론짓습니다.
핵심 인사이트
- MCP의 쇠퇴 징후: 2026년 2월 기준, OpenClaw와 Pi 등의 서비스가 MCP를 지원하지 않으며 업계의 초기 열광이 식어가고 있습니다.
- LLM의 CLI 숙련도: LLM은 수백만 개의 man page, Stack Overflow 답변, GitHub 리포지토리를 통해 이미 CLI 환경에 최적화된 학습을 마쳤습니다.
- 강력한 조합성(Composability):
terraform show -json | jq와 같이 파이프라인을 통한 데이터 가공이 가능한 CLI와 달리, MCP는 컨텍스트 윈도우 한계나 서버 측 필터링 구현의 번거로움이 존재합니다. - 검증된 인증 체계:
aws sso,gh auth login,kubeconfig등 이미 안정성이 검증된 인증 시스템을 CLI는 그대로 활용할 수 있으나 MCP는 불필요하게 복잡한 인증 방식을 요구합니다.
주요 디테일
- 디버깅의 용이성: LLM이 Jira에서 예기치 못한 행동을 할 때, 개발자는
jira issue view명령어를 직접 실행해 결과를 바로 확인할 수 있지만, MCP는 복잡한 JSON 전송 로그를 파헤쳐야 합니다. - 데이터 처리 사례: 대규모 Terraform 플랜 분석 시 MCP는 전체 데이터를 컨텍스트에 쏟아붓는 비용 효율적이지 못한 방식을 택하거나 서버 기능을 매번 수정해야 하는 제약이 있습니다.
- 인증 인프라 활용: CLI 도구는 사용자 환경의 프로필과 SSO 설정을 그대로 사용하므로, LLM이 구동될 때 별도의 MCP 전용 인증 트러블슈팅이 필요하지 않습니다.
- 운영 오버헤드: 로컬 MCP 서버는 별도의 프로세스로 상주하며 관리가 필요하지만, CLI는 필요한 순간에 실행되는 가벼운 구조입니다.
- Anthropic의 영향력: Anthropic의 MCP 발표 이후 많은 기업이 대응에 나섰으나, 실질적인 리소스 투입 대비 성능 향상은 미미하다는 평가가 지배적입니다.
향후 전망
- CLI 중심 에이전트의 부상: 복잡한 전용 프로토콜보다는 기존 CLI 도구를 LLM이 더 잘 호출할 수 있도록 돕는 문서화와 환경 설정 표준화에 집중될 것으로 보입니다.
- 불필요한 기술 스택의 정리: MCP 서버 구축에 투입되었던 개발 자원이 실제 AI 모델의 추론 능력 향상이나 도구 활용 로직 개선으로 회귀할 가능성이 높습니다.
