소라 2, 저작권 구조 논란 본격화… “이미 무단 학습 위에 세워진 모델”
오픈AI의 텍스트-투-비디오 모델 Sora 2가 출시 직후부터 저작권 논란의 중심에 섰다. 비판의 핵심은 단순한 데이터 사용 여부가 아니라, 저작권자의 사전 동의 없이 구축된 모델 구조 자체가 문제라는 점이다. 기술 매체 404 Media는 소라 2를 “이미 훔친 콘텐츠로 지은 건물”에 비유하며, 사후적인 규정 변경만으로는 구조적 문제를 해결할 수 없다고 지적했다.
현재 오픈AI는 저작권자가 별도 요청(옵트아웃)을 하지 않으면 그들의 작품을 학습 데이터로 활용할 수 있는 정책을 유지하고 있다. 그러나 글로벌 저작권 산업은 전통적으로 ‘사전 허가(옵트인)’ 방식에 기반해 운영돼 왔다. 이 괴리 때문에 일본 CODA, 스튜디오 지브리, 스퀘어에닉스, 반다이 남코 등 주요 기업들이 일제히 우려를 표명했고, 헐리우드 스튜디오와 MPA(미국영화협회) 역시 “창작 생태계가 심각한 위험에 직면했다”고 경고했다.
안전장치 문제도 불씨를 키우고 있다. 소라 2 영상에 삽입된 움직이는 워터마크가 서드파티 도구로 손쉽게 제거된다는 사실이 확인되면서, 영상 진위 구별 장치가 사실상 작동하지 않는다는 지적이 나온다. 전문가들은 워터마크가 무력화되는 순간, 생성 영상이 상업 광고·SNS 콘텐츠·게임 트레일러 등 다양한 시장에 섞여도 일반 이용자가 진위를 구분하는 것이 거의 불가능하다고 말한다.
이미 현업에서도 문제가 현실화되고 있다. 일부 영상·게임 제작사는 “특정 작가의 스타일을 모방한 AI 영상이 퍼지고 있다”며 IP 보호 전략을 긴급 수정하는 중이다. 창작물이 장기간 축적해 온 고유한 시각 스타일이, 학습된 모델을 통해 몇 분 만에 재현·변형될 수 있기 때문이다.
전문가들은 이번 사안을 “저작권 분쟁을 넘은, AI 학습 거버넌스의 제도적 공백”으로 본다. 유럽연합·미국 일부 지역에서는 ▲AI 학습 데이터 출처 공개 ▲저작권자 사전 동의(옵트인) 의무 ▲강제 워터마크 삽입 등의 규제를 논의 중이다. 소라 2는 기술 성능보다도 “무엇을 기반으로 만들어졌는가”라는 질문을 다시 제기하며, 생성형 AI 산업 전반의 구조적 재검토를 촉발하는 계기가 되고 있다.
참고 출처
- “OpenAI Can’t Fix Sora’s Copyright Infringement Problem Because It Was Built With Stolen Content” – 404 Media, Emanuel Maiberg. (404 Media)
- “Urgent Demand to Remove the Sora 2 AI Video Tool from Public Release” – Public Citizen 공식 서한, 2025 년 11 월 10 일. (Public Citizen)
- “Advocacy group calls on OpenAI to address Sora 2’s deepfake risks” – CyberScoop, Derek B. Johnson, 2025 년 11 월 12 일. CyberScoop)
- “Studio Ghibli, Bandai Namco, Square Enix demand OpenAI stop using their content to train AI” – The Verge, 2025. (The Verge)
