Grammarly의 엉성한 도플갱어 이야기
(theverge.com)Grammarly(현 Superhuman)는 유명 인사들의 이름을 무단으로 도용하여 AI 기반 글쓰기 조언을 제공하는 'Expert Review' 기능을 출시했습니다. 그러나 이 기능은 저품질의 조언, 출처 불분명성, 그리고 윤리적 논란으로 인해 거센 비판에 직면했습니다. 결국, 언론 보도와 전문가들의 반발에 따라 Grammarly는 해당 기능을 신속하게 중단하고 AI 활용에 대한 신중한 접근을 약속했습니다.
- 1Grammarly는 2025년 10월 'Superhuman'으로 리브랜딩하며 AI 기업으로 전환을 선언했으나, 같은 해 8월 출시한 AI 기반 'Expert Review' 기능으로 윤리적 논란에 휩싸였다.
- 2해당 기능은 스티븐 킹, 칼 세이건 등 유명 작가 및 학자뿐만 아니라, <더버지> 기자들의 이름까지 무단으로 사용하여 AI 기반의 글쓰기 조언을 제공했다.
- 3AI가 생성한 조언은 종종 모호하거나 '단어 샐러드' 수준이었고, 출처 링크는 깨져 있거나 무관한 페이지로 연결되어 신뢰도 하락에 기여했다.
- 42026년 3월 언론 보도와 비판이 거세지자, Grammarly는 3월 10일 전문가 이메일 옵트아웃 기능을 도입한 지 하루 만인 3월 11일 'Expert Review' 기능을 완전히 비활성화했다.
- 5Superhuman CEO 시시르 메로트라는 "에이전트가 그들의 목소리를 잘못 표현했다는 전문가들의 유효한 비판적 피드백을 받았다"고 인정하며, AI 개발 시 윤리적 고려의 중요성을 부각시켰다.
왜 중요한가
배경과 맥락
업계 영향
한국 시장 시사점
Grammarly의 이번 실수는 AI 기술의 상업적 적용에 있어 '무엇을 할 수 있는가'를 넘어 '무엇을 해야 하는가'에 대한 근본적인 질문을 던집니다. 단순히 기술적으로 구현 가능하다고 해서 윤리적, 법적, 그리고 사용자 경험 측면에서 모두 적절한 것은 아닙니다. 특히 AI가 개인의 정체성을 모방하거나 그 이름을 빌려 콘텐츠를 생성할 때는 더욱 그러합니다. 스타트업 창업자들은 기술 혁신에 대한 열망으로 규제나 윤리적 경계를 간과하기 쉽지만, 이 사례는 그러한 접근이 단기적인 이득보다 장기적인 브랜드 신뢰와 생존에 더 큰 위협이 될 수 있음을 명확히 보여줍니다. "신뢰는 쌓는 데 오랜 시간이 걸리지만, 무너지는 건 한순간"이라는 격언이 AI 시대에 더욱 강력하게 적용됩니다.
이 사건은 스타트업들에게 몇 가지 핵심적인 인사이트를 제공합니다. 첫째, AI 서비스 기획 단계부터 법률 전문가(특히 지적재산권 및 초상권 관련)를 참여시켜 잠재적 리스크를 선제적으로 검토해야 합니다. '나중에 생각하자'는 태도는 치명적일 수 있습니다. 둘째, AI가 유명인의 '스타일'을 모방하는 방식이 아니라, 실제 전문가와의 정당한 협업 모델을 구축하거나, AI 생성물임을 명확히 밝히고 책임 소재를 명확히 하는 투명성을 확보해야 합니다. 단순히 '영감'을 받았다는 모호한 표현으로는 사용자들의 불신을 해소할 수 없습니다. 셋째, 제품 출시 전 소수 그룹을 대상으로 한 철저한 윤리적 사용자 테스트(Ethical User Testing)를 통해 예상치 못한 사회적 반발을 미리 감지하고 대응책을 마련해야 합니다. 빠른 출시도 좋지만, '잘못된' 빠른 출시는 되돌릴 수 없는 결과를 초래할 수 있습니다.
댓글
아직 댓글이 없습니다. 첫 댓글을 남겨보세요.