그래머리, 무단 데이터 학습을 통한 '전문가 AI 복제' 중단 발표

Superhuman은 전문가의 동의 없이 문체를 복제했다는 비판을 받은 Grammarly 기반의 'Expert Review' 기능을 2026년 3월 11일 공식 중단했습니다. Shishir Mehrotra CEO는 전문가들이 자신의 지식 표현 방식과 비즈니스 모델을 직접 통제할 수 있도록 해당 기능을 재구상하겠다고 사과와 함께 발표했습니다.

AI 요약

Superhuman이 Grammarly와 협력하여 제공하던 AI 기능인 'Expert Review'를 전면 중단하기로 결정했습니다. 해당 기능은 The Verge의 편집장과 소속 기자들을 포함한 유명 작가들의 공개된 작업물을 제3자 LLM으로 학습시켜, 이들의 문체에서 영감을 받은 편집 제안을 제공해 왔습니다. 하지만 전문가들의 명의가 무단으로 도용되고 목소리가 왜곡되었다는 비판이 거세지자, Superhuman 측은 기능 비활성화와 함께 공식 사과문을 발표했습니다. Ailian Gan 제품 관리 이사는 전문가들에게 자신의 표현 방식에 대한 실질적인 통제권을 부여하지 못한 점을 인정했습니다. 이번 결정은 AI 학습 데이터 활용에 있어 창작자의 권리와 사전 동의의 중요성을 다시 한번 일깨워주는 사례가 되었습니다.

핵심 인사이트

  • 기능 중단 시점: 2026년 3월 11일, Superhuman은 전문가 무단 복제 논란이 된 Grammarly 기반 'Expert Review' 기능을 비활성화함.
  • 최초 출시 및 기술: 해당 에이전트는 2025년 8월에 출시되었으며, 공개된 정보를 바탕으로 제3자 LLM을 통해 영향력 있는 인물의 문체를 모사함.
  • 피해 당사자: The Verge의 편집장을 비롯한 다수의 전문 필진들이 본인의 동의 없이 AI 학습 및 서비스에 이름이 활용된 것에 대해 강력히 항의함.

주요 디테일

  • CEO의 공식 사과: Shishir Mehrotra CEO는 LinkedIn을 통해 전문가들이 직접 참여 여부를 선택하고 지식의 표현 방식을 형성하는 '비즈니스 모델'을 통제할 수 있는 환경을 만들겠다고 약속함.
  • 초기 대응의 한계: Superhuman은 비판 직후 작가들을 위한 '거부(Opt-out)' 전용 이메일 계정을 생성했으나, 이 조치가 불충분하다는 것을 인정하고 기능 자체를 폐쇄함.
  • 제품 관리 이사의 발언: Ailian Gan은 해당 기능이 사용자와 전문가 사이의 관계를 심화하려 했으나 결과적으로 "기준에 미치지 못했다(missed the mark)"고 시인함.
  • AI의 윤리적 과제: 이번 사건은 사용자가 일하는 장소에 AI를 직접 도입하려는 'AI의 라스트 마일(last mile of AI)' 전략 추진 과정에서 발생한 저작권 및 윤리적 결함을 보여줌.

향후 전망

  • 전문가 통제권 강화: 향후 재출시될 기능은 사후 거부(Opt-out) 방식이 아닌, 전문가가 직접 참여를 결정하는 사전 동의(Opt-in) 기반으로 재설계될 가능성이 높음.
  • 수익 공유 모델 도입 가능성: CEO가 언급한 '전문가의 비즈니스 모델 통제'는 AI가 전문가의 지식을 활용할 때 적절한 보상을 제공하는 유료 파트너십 형태의 도입을 시사함.
Share

댓글

이 소식에 대한 의견을 자유롭게 남겨주세요.

댓글 (0)

불러오는 중...

그래머리, 무단 데이터 학습을 통한 '전문가 AI 복제' 중단 발표 | paper!