AI 요약
Anthropic이 개발 중인 AI 코딩 도구 'Claude Code'의 전체 소스 코드가 npm(JavaScript 패키지 관리자) 배포 과정에서의 설정 오류로 인해 외부에 노출되었습니다. 이번 사고는 해킹이 아닌, 원본 코드를 복구할 수 있는 '소스 맵' 파일을 실수로 포함하여 배포하면서 발생했습니다. 보안 연구원 Chaofan Shou가 발견한 이 유출본은 1,902개의 파일과 51만 행 이상의 코드를 담고 있으며, 배포 직후 GitHub 등으로 급격히 확산되어 완전한 회수가 불가능한 상황입니다. 코드 분석 결과, 자율형 어시스턴트 프로젝트 'KAIROS'와 메모리 정리 기능인 'Dream' 등 Anthropic의 향후 로드맵이 상세히 드러났습니다. 'AI 안전'을 핵심 가치로 내세우는 Anthropic이 최근 5일 사이 두 차례나 대규모 정보 유출을 겪으면서 기업 보안 관리에 대한 비판이 거세지고 있습니다.
핵심 인사이트
- 대규모 데이터 유출: 유출 대상은
@anthropic-ai/claude-code v2.1.88버전으로, 총 1,902개 파일 및 51만 행 이상의 소스 코드가 포함되었습니다. - 확산 속도 및 규모: 유출 발견 수 시간 만에 GitHub 아카이브 리포지토리가 생성되었으며, 최대 15,000개 이상의 스타와 22,000개 이상의 포크를 기록했습니다.
- 연쇄적 보안 사고: 지난 3월 26일 CMS 설정 미비로 'Claude Mythos' 모델 정보 등 3,000개 자산이 유출된 지 불과 5일 만에 발생한 추가 사고입니다.
- 비용 폭등 버그: 소스 유출과 같은 날, 프로ンプ트 캐시 파괴 버그가 발견되어 일부 사용자의 API 이용료가 10~20배까지 치솟는 문제가 보고되었습니다.
주요 디테일
- 배포 방식의 결함: Anthropic은 npm 배포 시 권장되는 '화이트리스트(포함할 파일 지정)' 방식 대신 '블랙리스트(제외할 파일 지정)' 방식을 사용하다가 소스 맵 파일을 걸러내지 못했습니다.
- KAIROS 프로젝트: 현재의 대화형 AI를 넘어 사용자 개입 없이 자율적으로 업무를 수행하는 상주형 어시스턴트로의 진화 계획이
tengu_kairos_brief등의 플래그를 통해 확인되었습니다. - Dream 기능: AI가 휴지기에 과거 세션을 복기하고 기억을 정리하는
autoDream로직이 발견되었으며, 이는 프로세스 간 배타적 제어를 위한consolidationLock시스템을 포함합니다. - 멀티 에이전트 설계: 검증 에이전트(Verification Agent)에게 "너의 임무는 코드를 파괴하는 것이다"라고 지시하는 등, AI 스스로의 편향을 제거하기 위한 내부 프롬프트 설계가 노출되었습니다.
- 내부 정보 제어의 역설: Anthropic은 내부적으로 모델 코드네임 등을 자동 삭제하는 기능을 갖추고 있었으나, 정작 배포 설정 오류로 전체 소스가 공개되는 아이러니를 보였습니다.
향후 전망
- 개발 프로세스 표준 변화: npm 패키지 배포 시 '소스 맵 포함 여부'와 '화이트리스트 방식 적용'에 대한 보안 체크리스트가 업계 표준으로 강력히 권고될 전망입니다.
- 기술 로드맵 가속화: 유출된 'KAIROS'와 'Dream' 기능의 설계 구조가 공개됨에 따라, 오픈소스 진영이나 경쟁사들이 유사한 자율형 AI 기능을 구현하는 속도가 빨라질 것으로 보입니다.
- Anthropic의 신뢰도 위기: 반복되는 보안 관리 실패로 인해 기업용 AI 시장에서의 신뢰도 하락이 예상되며, 강력한 보안 재발 방지 대책 수립이 요구됩니다.
