알리바바의 등판! 토큰 소모 걱정 없는 OpenClaw로 컴퓨팅 자원의 자유를 누리는 법

알리바바 클라우드가 토큰 단위가 아닌 요청 횟수 기반으로 과금하는 'Coding Plan'을 출시하여 OpenClaw 등 에이전트 도구의 비용 부담을 획기적으로 낮췄습니다. 이 서비스는 설 연휴 전후로 공개된 Qwen-3.5, Kimi-K2.5 및 GLM-4.7 등 최신 고성능 모델을 통합 제공하며 OpenAI와 Anthropic 프로토콜을 모두 지원합니다.

AI 요약

최근 OpenClaw나 Claude Code와 같은 AI 에이전트 도구는 뛰어난 성능에도 불구하고, 일반 챗봇 대비 100~1000배에 달하는 막대한 토큰 소모량과 복잡한 모델 교체 과정이 사용자들에게 큰 비용 및 운영 부담으로 작용해 왔습니다. 알리바바 클라우드는 이를 해결하기 위해 토큰 소모량 대신 요청 횟수(Request)를 기준으로 과금하는 'Coding Plan'을 전격 도입했습니다. 이 플랜은 설 연휴 기간에 맞춰 출시된 Qwen-3.5를 비롯해 Kimi-K2.5, GLM-4.7 등 중국 내 최상위권 코딩 모델들을 하나의 키로 사용할 수 있게 해줍니다. 특히 OpenAI와 Anthropic의 API 규격을 모두 지원하여 기존 개발 도구와의 호환성을 극대화했으며, 아시아·태평양 1위 클라우드 사업자다운 안정적인 인프라를 바탕으로 에이전트 실행 시 발생하는 대규모 연산 처리를 효율적으로 지원합니다.

핵심 인사이트

  • 과금 체계의 혁신: 기존 토큰 기반 과금에서 탈피하여 요청 횟수 기반 요금제를 도입, 에이전트의 다회차 추론과 도구 호출 시 발생하는 '토큰 폭탄' 걱정을 제거했습니다.
  • 최신 모델 라인업: 설 연휴(除夕) 당일 발표된 Qwen-3.5와 직전 주에 공개된 다중모드 모델 Kimi-K2.5, 그리고 빠른 응답 속도를 자랑하는 GLM-4.7이 포함되었습니다.
  • 범용 호환성 제공: OpenAI(v1)와 Anthropic(apps/anthropic) 양측의 API 프로토콜을 모두 제공하여 Claude Code와 같은 도구에 무설정 수준의 연동이 가능합니다.

주요 디테일

  • 지원 모델 리스트: qwen3.5-plus, qwen3-max-2026-01-23, qwen3-coder-next, qwen3-coder-plus, glm-4.7, kimi-k2.5 등이 포함되어 있습니다.
  • 전용 API 키 체계: 일반적인 백련(Bailian) 키와 혼동되지 않도록 sk-sp-로 시작하는 고유한 API 키 형식을 사용합니다.
  • 에이전트 최적화: 백그라운드에서 수백 번의 자기 반성과 도구 호출을 수행하는 OpenClaw와 같은 Agent 도구의 특성에 맞춰 대기 시간 없는 안정적인 연결을 보장합니다.
  • 속도 경쟁력: 특히 GLM-4.7 모델은 복잡한 작업용인 GLM-5보다 훨씬 빠른 반응 속도를 보여 개인 비서형 에이전트 서비스에 적합한 것으로 분석됩니다.
  • 간편한 설정: Claude Code의 setting.json이나 OpenClaw의 openclaw.json 설정 파일에서 엔드포인트 주소와 모델명만 바꾸면 즉시 모델 스위칭이 가능합니다.

향후 전망

  • 모델 확장성: 현재 미포함된 최신 오픈소스 모델인 GLM-5와 MiniMax-M2.5 등이 추가로 어댑테이션(Adaptation)을 거쳐 합류할 가능성이 높습니다.
  • 에이전트 대중화: 비용 예측 가능성이 높아짐에 따라 기업 및 개인이 복잡한 'Vibe Coding' 환경을 구축하는 사례가 급증할 것으로 보입니다.
Share

댓글

이 소식에 대한 의견을 자유롭게 남겨주세요.

댓글 (0)

불러오는 중...

알리바바의 등판! 토큰 소모 걱정 없는 OpenClaw로 컴퓨팅 자원의 자유를 누리는 법 | paper!