AI 요약
2026년 4월 현재, 중국의 주요 AI 코딩 플랜(CodingPlan)들이 성능 및 가격 경쟁력 위기에 직면해 있습니다. 최근 테스트 결과에 따르면, Kimi, 화산방주, MiniMax, 지보(Zhipu) 등 국산 모델들은 월 200위안 수준의 요금을 책정하고 있으나, 성능은 20달러(약 140위안)인 OpenAI의 GPT-5.5 및 Codex 조합에 비해 한 단계 낮다는 평가를 받고 있습니다. 특히 5만 자 분량의 소설 집필과 최신 모델 API 가격표 작성 미션에서 대다수 국산 모델은 할당량 급변, API 오류, 데이터 업데이트 지연 등의 문제를 노출했습니다. 지보 GLM 5.1만이 최신 모델 정보를 정확히 파악했으나 속도 면에서 한계를 보였으며, 사용자들은 국산 모델들이 벤치마크 점수와 달리 실무 능력은 부족하다고 비판하고 있습니다. 이러한 상황에서 새롭게 등장한 DeepSeek V4가 시장의 판도를 바꿀 수 있을지 업계의 이목이 쏠리고 있습니다.
핵심 인사이트
- 가격 및 가성비 역전: 국산 Pro 요금제는 월 약 200위안인 반면, 성능이 더 우수한 OpenAI GPT-5.5 세트는 20달러(약 140위안)로 국산이 약 40% 이상 비쌈.
- 데이터 업데이트 지연: 2026년 4월 24일 기준, Kimi와 화산방주는 최신 모델을 GPT-4.5로 인식하고 있으나, 실제 시장은 GPT-5.5와 Claude Opus 4.7이 출시된 상태임.
- 할당량 소모 문제: Kimi의 경우 5만 자 소설 집필 한 번에 전체 할당량의 63%를 소모하며, 수정 요구 시 작업 완수가 불가능한 수준임.
- 지보(Zhipu)의 상대적 우위: GLM 5.1 모델만이 유일하게 최신 모델 정보를 정확히 검색해냈으며, 구형 Pro 사용자에게 비교적 넉넉한 할당량을 제공함.
주요 디테일
- Kimi: 할당량 소모가 극심하며(5만 자 작성 시 63%), 실시간 네트워크 권한이 있음에도 Qwen3-235B-A22B 등 최신 국산 모델 정보를 제대로 반영하지 못함.
- 화산방주(두바오): 15% 수준의 낮은 토큰 소모율을 보였으나, 초기 연결 지연(Latency)이 매우 높고 Anthropic 모델을 Sonnet 3.7 수준으로 인식하는 등 정보가 노후됨.
- MiniMax (M2.7): '최강 지능체'라는 홍보와 달리 API 오류로 작업을 중단(3회 호출 후 멈춤)하거나 요청 대비 20%의 글자 수 오차를 기록함.
- 지보 GLM 5.1: 정보 정확도는 높으나 처리 속도가 매우 느리며, 5,000자 요청 시 1,262자만 출력하는 등 70%의 분량 오차를 보임.
- OpenAI 경쟁력: GPT-5.5와 함께 제공되는 Codex는 데스크톱 모드에서 'Computer Use' 기능을 지원하며 로컬 소프트웨어 및 브라우저 제어 능력이 월등함.
향후 전망
- 글로벌 모델로의 이탈 가속화: 성능과 가격 모두 우위에 있는 GPT-5.5와 Opus 4.7로 인해 중국 국내 사용자들의 유료 결제 이탈이 심화될 것으로 보임.
- DeepSeek V4의 역할: 기존 국산 모델들의 할당량 축소와 성능 정체 문제를 DeepSeek의 신규 모델이 해결할 수 있을지가 중국 AI 시장의 주요 관전 포인트임.
출처:juejin
