AI 요약
최근 미군의 이란 공습에 전례 없는 규모로 AI 기술이 활용되면서 기술 발전과 지정학적 위기가 실전에서 맞물리고 있습니다. 앤트로픽(Anthropic)은 자사 기술의 자율 살상 무기 활용을 막는 안전망 유지를 주장했으나, 트럼프 행정부는 이를 거부하며 계약 해지 및 공급망 블랙리스트 등록으로 응수했습니다. 이후 오픈AI가 국방부와 계약했으나, 샘 알트만 CEO조차 군의 사용 방식을 완전히 통제할 수 없음을 시사하며 윤리적 공백에 대한 우려가 커지고 있습니다. 특히 가자 지구와 이란에서 활용되는 AI 시스템은 표적 식별부터 법적 근거 평가까지 수행하며, 인간은 단지 '승인 도장'을 찍는 역할로 전락했다는 현장의 증언이 잇따르고 있습니다. 이러한 기술의 오용은 지난 2월 28일 이란 학교 폭격으로 여학생 165명이 사망하는 등 막대한 민간인 피해로 이어지고 있어 국제적인 감시와 제약이 시급한 상황입니다.
핵심 인사이트
- 앤트로픽 블랙리스트 등재: 살상 무기 사용 제한을 요구한 AI 기업 앤트로픽이 미 국방부 계약에서 해지되고 공급망 위험 블랙리스트에 올랐습니다.
- 이란 학교 폭격 피해: 2월 28일 미군의 공격으로 추정되는 이란 학교 폭격으로 인해 여학생 165명이 사망하는 참사가 발생했습니다.
- 이스라엘의 AI 표적 관리: 가자 전쟁에서 이스라엘 정보원은 AI를 통해 3만 6,000개의 표적을 대기시키고 있으며, 표적당 평가 시간은 20초에 불과하다고 밝혔습니다.
- UN의 경고: 안토니오 구테흐스 유엔 사무총장은 AI 활용 가이드라인 마련의 시급성을 강조하며 기술 발전 속도가 이론을 앞지르고 있다고 경고했습니다.
주요 디테일
- AI의 역할 확대: AI는 이제 단순히 정보를 분석하는 수준을 넘어 타겟 식별, 우선순위 선정, 무기 추천, 공격의 법적 근거 평가까지 수행하고 있습니다.
- 오픈AI의 입장: 앤트로픽의 빈자리를 채운 오픈AI의 샘 알트만은 내부 답변을 통해 펜타곤의 자사 제품 사용을 완벽히 통제하기 어렵다는 점을 인정했습니다.
- 민간인 희생 수치: 앤트로픽의 '클로드'가 지원한 것으로 알려진 대규모 공격으로 이란 내에서 1,000명 이상의 민간인이 희생된 것으로 전해집니다.
- 인간 통제의 형식화: '스톱 킬러 로봇'의 니콜 반 로이옌 회장은 인간의 통제가 사후 고려 사항이나 단순 형식으로 전락할 위험을 지적했습니다.
- 제네바 다자간 논의: 자율 살상 무기 문제를 해결하기 위해 세계 정부들이 제네바에 모여 조약 초안을 논의 중이나 강대국들은 거부감을 보이고 있습니다.
향후 전망
- AI 기반 전쟁 기술의 통제되지 않은 확장이 적대국 간의 경쟁을 부추겨 인류 전체에 더 큰 위험을 초래할 것으로 보입니다.
- 제네바에서 논의 중인 자율 살상 무기 관련 국제 조약의 성립 여부가 향후 AI 군사적 활용의 핵심 분수령이 될 전망입니다.
