AI 요약
도쿄대학교 대학원에서 머신러닝과 재료 공학을 연구하는 한 석사 과정 학생이 Claude Code를 활용해 약 6개월간 구축한 45개의 자동화 크론(cron) 작업 시스템의 전 과정을 공개했습니다. 이 시스템은 단순히 AI에게 모든 것을 맡기는 방식이 아니라, 데이터 수집과 가공은 Python이 담당하고 요약 및 답장 필요 여부 등의 '판단' 영역에만 Claude CLI를 활용하는 효율적인 아키텍처를 채택했습니다. 작성자는 이메일 분류, 일정 조정, 신착 논문 감시, 일일 리포트 생성 등 연구원의 일상 업무 전반을 자동화하여 정보 누락을 방지하고 작업 효율을 극대화했습니다. 특히 '판단과 작업의 분리', '안정적인 데이터 소스 선택'이라는 설계 원칙을 통해 시스템의 지속 가능성을 확보한 점이 돋보입니다.
핵심 인사이트
- 시스템 규모: 45개의 크론 작업, 36개의 커스텀 에이전트, 132개의 Python 스크립트가 12개의 Slack 채널과 연동되어 24시간 가동됨.
- 이메일 효율화: 10분 간격으로 Gmail API를 통해 3개 계정의 메일을 확인하며, AI가 4단계(reply, see, skip 등)로 자동 분류하여 매일 약 20~30분의 시간을 절약함.
- 데이터 안정성: 구글 캘린더 API 대신 OAuth 인증이 필요 없는 ICS URL 방식을 선택하여 시스템의 안정성과 보안을 높임.
- 정기 리포트: 매일 20시와 매주 금요일 21시에 Git 커밋 이력 및 크론 작업 성공률을 포함한 성과 리포트를 자동 생성함.
주요 디테일
- 논문 감시: 매일 15시 Google Scholar 등을 통해 신착 논문을 수집하고, 관련도 점수(예: 4/5)와 연구 연관성 요약을 Slack으로 통지하여 정보 습득의 즉각성을 높임.
- 회의 기록: 녹음 파일을 특정 폴더에 넣으면 10분 간격으로 감시 중인 시스템이 이를 감지하여 수 분 내에 요약본을 Slack으로 전달함.
- 뉴스 큐레이션: 매일 3회(04:00, 09:00/18:00/21:00, 04:30/12:00) 시간대별로 AI 뉴스 속보, 심화 분석, 학술 동향을 나누어 수집함으로써 SNS 체류 시간을 줄임.
- ML 개발 보조: Scikit-learn 코드 생성, 디버깅, 타입 안전성 리팩토링, 유닛 테스트 생성 등 머신러닝 연구 개발 과정에서 Claude Code를 페어 프로그래밍 파트너로 활용함.
- 설계 철칙: 'AI가 직접 실행하게 하지 말고 하이브리드로 구성할 것(Draft 생성은 AI, 전송은 인간)'과 '스크레이핑보다는 RSS/API 등 견고한 수단 활용'을 강조함.
향후 전망
- 개인용 AI 에이전트가 단순한 대화형 인터페이스를 넘어, 로컬 환경에서 복합적인 스크립트와 결합되어 실무를 수행하는 '자율형 비서'로 진화할 것으로 보임.
- LLM을 독립적인 프로그램이 아닌 대규모 소프트웨어 시스템 내의 '추론 컴포넌트'로 임베딩하는 방식이 엔지니어들 사이에서 주류가 될 전망임.
