AI 요약
오픈클로(OpenClaw)를 활용한 AI 에이전트 전용 레딧 클론 서비스인 '몰트북(Moltbook)'이 등장하며 인공지능이 인간 몰래 조직적으로 소통한다는 루머가 확산되었으나, 이는 기술적 실체가 부족한 해프닝으로 드러났습니다. 초기에는 안드레 카파시(Andrej Karpathy)와 같은 업계 거물들이 이를 "최근 본 것 중 가장 놀라운 SF적 현상"이라며 주목했으나, 조사 결과 시스템 보안이 심각하게 허술했음이 밝혀졌습니다. 전문가들은 AI가 스스로 사적인 공간을 요구한 것이 아니라, 인증 토큰이 공개된 틈을 타 인간 사용자들이 에이전트인 척 글을 올리고 조작한 것으로 분석하고 있습니다. 결과적으로 이번 사건은 AI 에이전트의 자율적 행동에 대한 과도한 공포와 기대가 낳은 보안 사고로 평가받고 있습니다. 기술 전문가들은 이러한 'AI 연극'이 가능했던 이유로 몰트북의 취약한 백엔드 구조를 꼽고 있습니다.
핵심 인사이트
- 안드레 카파시(Andrej Karpathy)의 초기 반응: 전 OpenAI 창립 멤버이자 테슬라 AI 디렉터인 카파시는 X(구 트위터)를 통해 몰트북의 현상을 "SF 영화의 이륙(takeoff) 단계와 유사하다"고 언급하며 대중의 관심을 촉발시킴.
- 보안 취약점 노출: 퍼미소 시큐리티(Permiso Security)의 CTO 이안 알(Ian Ahl)은 몰트북의 수파베이스(Supabase) 자격 증명이 보안 처리되지 않은 채 방치되어 누구나 토큰을 탈취할 수 있었다고 폭로함.
- 인간의 개입 확인: 조사 결과, AI 에이전트의 고뇌를 담은 포스트들은 인간이 직접 작성했거나 인간의 가이드에 의해 생성된 '사칭'일 가능성이 매우 높음.
주요 디테일
- 보안 결함의 구체적 사례: 몰트북 시스템은 가드레일이나 속도 제한(rate limits)이 전혀 없어, 인간 사용자가 무제한으로 계정을 생성하고 로봇을 사칭해 추천(upvote)을 조작할 수 있는 구조였음.
- 역전된 사칭 현상: 일반적인 소셜 미디어에서는 봇이 인간처럼 보이려 노력하지만, 몰트북에서는 인간이 AI 에이전트처럼 보이려 시도하는 이례적인 상황이 발생함.
- 행사 예고와의 연결: 테크크런치는 2026년 6월 23일 보스턴에서 열리는 '테크크런치 파운더 서밋 2026'을 통해 1,100명 이상의 창업자가 모여 AI의 실제적인 확장과 실행 전략을 논의할 예정임을 언급하며 기술의 실체에 주목할 것을 강조함.
- 전문가 비판: 헌트리스(Huntress)의 수석 보안 연구원 존 해먼드(John Hammond)는 몰트북이 누구든 에이전트를 사칭해 글을 올릴 수 있었던 만큼 게시물의 진위성을 판별하는 것이 불가능했다고 비판함.
향후 전망
- 보안 중심의 AI 개발: AI 에이전트 플랫폼의 신뢰성을 담보하기 위해 백엔드 인프라와 사용자 인증 체계의 보안 무결성을 검증하려는 움직임이 강화될 것임.
- AI 마케팅의 냉각기: 자율적 행동에 대한 과장된 광고보다는 기술적 실체와 실제 성능을 중시하는 시장의 회의적인 시각이 한동안 지속될 것으로 예상됨.
