Nanocode: TPU 기반 순수 JAX로 구현한 200달러급 가성비 Claude Code

Salman Mohammadi가 공개한 'Nanocode'는 $200의 비용과 9시간의 학습으로 13억 개 파라미터 규모의 코딩 AI를 구축할 수 있는 오픈소스 프로젝트입니다. TPU v6e-8 환경과 순수 JAX를 기반으로 하며, Anthropic의 Constitutional AI 기법을 적용해 높은 가성비의 에이전틱 코딩 파트너를 구현했습니다.

AI 요약

2026년 4월 5일, 개발자 Salman Mohammadi는 Andrej Karpathy의 nanochat 프로젝트를 계승한 고성능 코딩 에이전트 학습 라이브러리인 'Nanocode'를 발표했습니다. 이 프로젝트는 Anthropic이 Claude 모델 학습에 사용한 Constitutional AI 방법론을 차용하여, 사용자가 직접 SOUL.md를 정의하고 선호도 최적화를 통해 모델을 정렬할 수 있게 설계되었습니다. Nanocode는 전적으로 JAX 언어로 작성되었으며 구글의 TPU 환경에 최적화되어 있어, 고가의 GPU 자원 없이도 클라우드 크레딧이나 TRC 프로그램을 통해 저비용으로 고성능 모델을 학습시킬 수 있다는 점이 핵심입니다. 특히 'The Stack-V2' 데이터를 활용해 코딩 역량을 극대화했으며, 개인 개발자도 단돈 수백 달러로 자신만의 Claude급 코딩 에이전트를 소유할 수 있는 길을 열었습니다.

핵심 인사이트

  • 극강의 가성비: 1.3B(13억) 파라미터 규모의 nanocode-d24 모델은 TPU v6e-8에서 약 9시간 만에 학습이 가능하며 비용은 단 $200 수준입니다.
  • 초경량 옵션: 477M 파라미터의 nanocode-d20 모델은 약 1.5시간의 학습 시간과 $34의 비용으로 구축할 수 있습니다.
  • 데이터 최적화: 사전 학습 및 토크나이저 훈련 시 'The Stack-V2'의 코딩 데이터를 1:5 비율로 혼합하여 코드 토큰화 효율성과 추론 성능을 향상시켰습니다.

주요 디테일

  • 기술 스택: 순수 JAX(Pure JAX)로 구현되어 TPU에서 최상의 성능을 발휘하며, NVIDIA GPU 환경에서도 즉시 실행 가능한 호환성을 갖추고 있습니다.
  • 학습 방법론: Anthropic의 방식과 유사하게 SOUL.md 정의, 에이전틱 인터페이스 설정, 합성 데이터 생성, 선호도 최적화(Preference Optimisation) 과정을 거치는 엔드투엔드 학습을 지원합니다.
  • 자원 활용: Google TRC(TPU Research Cloud) 프로그램의 한 달 무료 TPU 지원 및 신규 계정의 $300 크레딧을 활용하여 사실상 무료로 시작할 수 있는 가이드를 제공합니다.
  • 검증된 아키텍처: Andrej Karpathy의 nanochat 인프라와 철학을 기반으로 하여 기존 nanochat 사용자라면 쉽게 적응할 수 있는 구조를 취하고 있습니다.
  • 실전 성능: 나노코드 d24 모델은 실제 코딩 환경에서 에이전트로서 동작하며 사용자와 상호작용하는 시연(nanocode.mp4)을 통해 성능을 입증했습니다.

향후 전망

  • 개인형 AI 시대 가속화: 거대 기업의 API에 의존하지 않고 개인이 수백 달러 내외의 예산으로 특화된 고성능 코딩 에이전트를 보유하는 트렌드가 확산될 것입니다.
  • TPU/JAX 생태계 확장: NVIDIA GPU 부족 현상 속에서 TPU와 JAX를 활용한 고효율 오픈소스 학습 프레임워크에 대한 관심이 더욱 높아질 것으로 보입니다.
Share

이것도 읽어보세요

댓글

이 소식에 대한 의견을 자유롭게 남겨주세요.

댓글 (0)

불러오는 중...