AI 요약
안토니우 구테흐스 유엔 사무총장은 AI의 급속한 발전과 국제 규범 사이의 간극을 '파산 선고'에 비유하며 강력히 경고했습니다. 최근 가디언 보도에 따르면, 미 국방부는 자율 살상 무기용 안전장치 제거를 거부한 AI 스타트업 앤스로픽(Anthropic)을 공급망 위험 명단에 올려 블랙리스트에 포함시키는 보복성 조치를 취했습니다. 그 빈자리를 오픈AI가 채웠으나, 샘 올트먼조차 군의 기술 사용을 통제할 방법이 없음을 시인하며 윤리적 논란이 가중되고 있습니다. 전쟁의 현장에서는 'AI 사전 지원 시스템'이 적군 식별부터 무기 권고까지 수행하며, 인간의 판단은 단 20초 만에 끝나는 요식 행위가 되었습니다. 이러한 기술적 효율성 뒤에는 이란 내 1,000명 이상의 사망자와 학생 165명이 희생된 학교 폭격 같은 참혹한 비극이 뒤따르고 있습니다.
핵심 인사이트
- 대규모 인명 피해 발생: 이란 공세 과정에서 앤스로픽의 AI 모델 '클로드(Claude)'가 활용된 것으로 알려졌으며, 전체 사망자 수는 1,000명을 상회함.
- 특정 민간인 참사 사례: 지난 1월 28일 이란의 한 학교가 미군의 공격을 받아 학생 165명이 사망하는 비극적 사건이 발생함.
- 타격 평가의 가속화: 이스라엘 정보원 등의 사례에 따르면 AI 시스템 도입 후 표적 하나를 평가하고 승인하는 데 걸리는 시간은 단 20초에 불과함.
- 기술 기업과 군의 갈등: 앤스로픽은 자율 살상 무기 활용을 거부해 미 국방부로부터 블랙리스트 조치를 받았으며, 이후 오픈AI가 국방부와 계약을 체결함.
주요 디테일
- AI 사전 지원 시스템(Precursor Systems): 적군 식별, 우선순위 설정, 타격의 법적 근거 평가까지 AI가 수행하며 인간을 '승인 도장'을 찍는 존재로 전락시킴.
- 도덕적 거리두기 현상: 기술이 표적 생성을 자동화함에 따라 공격 주체의 감정적 가책이 희석되고 대량 살상이 기술적 효율성으로 치부됨.
- 미 국방부의 태도: 피트 헤그세스 미 국방장관은 교전 수칙 완화를 강조하며 민간인 희생에 대해서는 침묵을 지키고 있음.
- 국제 규범의 부재: 기술 속도를 따라가지 못하는 국제적 규범으로 인해 기업가나 국방부 소수가 기술 통제권을 독점하는 위험이 커짐.
향후 전망
- 국제 조약 체결 논의: 스위스 제네바에서 자율 살상 무기 시스템(LAWS) 규제를 위한 국가 간 논의가 진행 중이며, 이는 향후 강력한 국제법적 토대가 될 것으로 예상됨.
- 기술 패권과 인권의 충돌: 강대국들의 기술 패권 경쟁 속에서도 '인간의 통제'를 최후의 보루로 설정하려는 국제사회의 압박이 더욱 거세질 전망임.
