OpenAI 및 구글 직원들, 앤스로픽(Anthropic)의 美 국방부 상대 소송 지지

2026년 3월 9일, 앤스로픽이 미 국방부의 '공급망 위험' 지정에 반발해 소송을 제기하자, 구글의 제프 딘을 포함한 OpenAI 및 구글 직원 약 40명이 이를 지지하는 법정 의견서를 제출했습니다. 이번 갈등은 앤스로픽이 국내 대량 감시 및 자율 살상 무기 사용을 거부하자 트럼프 행정부가 보복성 제재를 가하며 시작되었습니다.

AI 요약

앤스로픽(Anthropic)은 자사 AI 기술이 '국내 대량 감시'와 '인간 개입 없는 완전 자율 살상 무기'에 사용되는 것을 금지하는 두 가지 윤리적 가이드라인(레드라인)을 고수해 왔습니다. 이에 대해 트럼프 행정부의 미 국방부는 앤스로픽을 외국 적대 기업에 주로 적용되는 '공급망 위험' 기업으로 지정하며 강경 대응에 나섰습니다. 이 지정은 앤스로픽의 군사 계약을 차단할 뿐만 아니라, 펜타곤과 거래하는 다른 기업들이 앤스로픽의 모델 '클로드(Claude)'를 사용하는 것까지 금지하는 일종의 블랙리스트 조치입니다. 앤스로픽은 2026년 3월 9일 이러한 조치가 부당한 보복이라며 국방부를 상대로 소송을 제기했습니다. 소송 직후, 구글의 수석 과학자 제프 딘(Jeff Dean)을 비롯한 OpenAI와 구글 소속 전문가 약 40명이 앤스로픽의 입장을 지지하는 법정 조언자 의견서(Amicus Brief)를 제출하며 업계 전체의 연대 움직임을 보였습니다.

핵심 인사이트

  • 대규모 업계 연대: 구글 제미나이(Gemini) 책임자인 제프 딘을 포함해 OpenAI 및 구글의 엔지니어, 연구원 약 40명이 소송 지지 의견서에 서명했습니다.
  • 윤리적 레드라인: 앤스로픽이 고수한 두 가지 금지 원칙은 '국내 대량 감시'와 '인간의 통제를 벗어난 자율 살상 무기' 개발입니다.
  • 보복성 지정 논란: 통상 외국 기업에 적용되는 '공급망 위험' 지정을 미국 기업인 앤스로픽에 적용한 것은 이례적이며 부당한 보복이라는 비판이 제기되었습니다.

주요 디테일

  • 실전 활용 사례: 피트 헤그세스(Pete Hegseth) 국방장관이 위험 지정을 발표한 지 불과 몇 시간 만에, 미군이 이란의 아야톨라 알리 하메네이 제거 작전에 클로드를 활용했다는 보도가 나왔습니다.
  • 비즈니스 타격: 이번 지정으로 인해 펜타곤 계약을 유지하려는 기업들은 기존에 사용하던 앤스로픽의 클로드 모델을 강제로 퇴출해야 하는 상황에 직면했습니다.
  • 대조적인 행보: 앤스로픽이 거부한 것과 달리, 다른 AI 기업들은 기술의 "모든 합법적 용도(any lawful use)"를 허용하는 계약에 서명하며 정부 사업에 참여하고 있습니다.
  • 전문가 그룹의 경고: 의견서를 제출한 전문가들은 AI 기반의 대량 감시가 민주적 통치에 근본적인 위험을 초래할 수 있다는 앤스로픽의 우려가 타당하다고 주장했습니다.

향후 전망

  • 법적 선례 확립: AI 기업의 윤리적 거부권과 국가 안보를 명분으로 한 정부의 강제력 행사가 충돌하는 첫 대형 법정 사례가 될 것입니다.
  • 인재 유동성 및 결속: 주요 AI 연구소 인력들이 기업의 경계를 넘어 윤리적 이슈로 연대함에 따라, 향후 정부의 AI 정책 수립에 있어 기술 전문가 집단의 영향력이 더욱 강화될 것으로 보입니다.
Share

댓글

이 소식에 대한 의견을 자유롭게 남겨주세요.

댓글 (0)

불러오는 중...

OpenAI 및 구글 직원들, 앤스로픽(Anthropic)의 美 국방부 상대 소송 지지 | paper!