AI 요약
META가 AI 생성 콘텐츠 투명성 강화를 위해 페이스북, 인스타그램, 스레드에 AI 생성 이미지 라벨링을 확대 적용합니다.
이는 경쟁사들의 AI 생성 콘텐츠까지 식별하여 라벨링하는 업계 표준 구축에 기여하며, META의 책임감 있는 AI 개발 노력을 부각시켜 긍정적인 기대감을 높입니다.
다만, 오디오 및 비디오 콘텐츠에 대한 라벨링은 아직 기술적 한계가 있어, 사용자 자율 공개에 의존하는 점은 향후 리스크 요인이 될 수 있습니다.
핵심 포인트
- META가 AI 생성 콘텐츠 투명성 강화를 위해 페이스북, 인스타그램, 스레드에 AI 생성 이미지 라벨링을 확대 적용합니다.
- 이는 경쟁사들의 AI 생성 콘텐츠까지 식별하여 라벨링하는 업계 표준 구축에 기여하며, META의 책임감 있는 AI 개발 노력을 부각시켜 긍정적인 기대감을 높입니다.
- 다만, 오디오 및 비디오 콘텐츠에 대한 라벨링은 아직 기술적 한계가 있어, 사용자 자율 공개에 의존하는 점은 향후 리스크 요인이 될 수 있습니다.
긍정 / 부정 요인
긍정 요인
- AI 생성 콘텐츠 투명성 강화
- 업계 표준 구축 기여
- 책임감 있는 AI 개발 노력 부각
부정 요인
- AI 오디오 및 비디오 콘텐츠 라벨링 기술적 한계
- 사용자 자율 공개 의존
기사 전문
메타(META), AI 생성 콘텐츠 투명성 강화 나선다
메타가 자체 개발한 생성형 AI 도구를 활용한 콘텐츠에 대한 투명성을 높이기 위한 새로운 접근 방식을 발표했습니다. 10년 이상 AI 개발을 선도해 온 메타는 사용자들이 텍스트 프롬프트만으로 이미지를 생성할 수 있는 Meta AI 이미지 생성기와 같은 새로운 생성형 AI 도구를 통해 폭발적인 창의성을 목격하고 있다고 밝혔습니다.
인간과 합성 콘텐츠의 경계가 모호해짐에 따라, 사용자들은 AI 생성 콘텐츠와 실제 콘텐츠의 경계에 대한 명확한 정보를 원하고 있습니다. 메타는 사용자들의 이러한 요구에 부응하여, AI로 생성된 사실적인 콘텐츠를 명확히 인지할 수 있도록 돕는 것이 중요하다고 강조했습니다. 이를 위해 메타는 Meta AI 기능으로 생성된 사실적인 이미지에 “Imagined with AI” 라벨을 적용하고 있으며, 나아가 다른 기업의 도구로 생성된 콘텐츠에 대해서도 이러한 투명성 확보를 확대할 계획입니다.
메타는 업계 파트너들과 협력하여 AI 생성 콘텐츠임을 나타내는 공통의 기술 표준을 마련하고 있습니다. 이러한 표준을 통해 페이스북, 인스타그램, 스레드에 게시되는 AI 생성 이미지를 식별하고 라벨을 부착할 수 있게 될 것입니다. 현재 이 기능 개발이 진행 중이며, 수개월 내에 각 앱에서 지원하는 모든 언어로 라벨 적용을 시작할 예정입니다.
특히, 내년에는 전 세계적으로 중요한 선거들이 다수 예정되어 있어 AI 생성 콘텐츠의 투명성 확보는 더욱 중요해질 전망입니다. 메타는 이 기간 동안 사용자들이 AI 콘텐츠를 어떻게 생성하고 공유하는지, 어떤 종류의 투명성을 가장 가치 있게 여기는지, 그리고 기술이 어떻게 발전하는지에 대해 많은 것을 배울 것으로 기대하고 있습니다. 이러한 학습 결과는 업계 모범 사례와 메타 자체의 향후 접근 방식을 개선하는 데 활용될 것입니다.
AI 생성 콘텐츠 식별 및 라벨링을 위한 새로운 접근 방식
Meta AI 기능으로 사실적인 이미지가 생성될 경우, 메타는 이미지에 보이는 표시와 이미지 파일 내에 포함된 보이지 않는 워터마크 및 메타데이터를 통해 AI 개입 사실을 알립니다. 이러한 보이지 않는 워터마크와 메타데이터는 이러한 표시의 견고성을 향상시키고 다른 플랫폼에서 이를 식별하는 데 도움을 줍니다. 이는 메타가 생성형 AI 기능을 책임감 있게 구축하는 데 중요한 부분입니다.
인터넷 전반에 AI 생성 콘텐츠가 확산됨에 따라, 메타는 Partnership on AI (PAI)와 같은 포럼을 통해 이를 식별하기 위한 공통 표준을 개발하기 위해 다른 기업들과 협력해 왔습니다. Meta AI 이미지에 사용되는 IPTC 메타데이터 및 보이지 않는 워터마크는 PAI의 모범 사례와 일치합니다. 메타는 C2PA 및 IPTC 기술 표준의 “AI 생성” 정보를 활용하여 Google, OpenAI, Microsoft, Adobe, Midjourney, Shutterstock 등에서 생성된 이미지를 라벨링할 수 있는 업계 선도적인 도구를 구축하고 있습니다.
현재 기업들은 이미지 생성기에 신호를 포함하기 시작했지만, 오디오 및 비디오 생성 AI 도구에서는 아직 동일한 수준으로 이루어지지 않고 있어, 이러한 콘텐츠를 다른 기업으로부터 감지하고 라벨링하는 데는 한계가 있습니다. 업계가 이러한 역량을 갖추기 위해 노력하는 동안, 메타는 사용자가 AI 생성 비디오 또는 오디오를 공유할 때 이를 공개할 수 있는 기능을 추가하여 라벨을 부착할 수 있도록 할 예정입니다. 또한, 사실적인 비디오 또는 현실적인 오디오가 디지털 방식으로 생성되거나 수정된 유기 콘텐츠를 게시할 때 이 공개 및 라벨 도구 사용을 의무화할 것이며, 이를 따르지 않을 경우 불이익을 받을 수 있습니다.
디지털로 생성되거나 수정된 이미지, 비디오 또는 오디오 콘텐츠가 중요한 사안에 대해 대중을 실질적으로 오도할 위험이 높다고 판단될 경우, 메타는 적절하다면 더 눈에 띄는 라벨을 추가하여 사용자에게 더 많은 정보와 맥락을 제공할 수 있습니다.
이러한 접근 방식은 현재 기술적으로 가능한 최첨단 수준을 나타냅니다. 하지만 모든 AI 생성 콘텐츠를 식별하는 것은 아직 불가능하며, 보이지 않는 표시를 제거하는 방법도 존재합니다. 따라서 메타는 다양한 옵션을 모색하고 있습니다. 보이지 않는 표시가 없는 AI 생성 콘텐츠도 자동으로 감지하는 분류기 개발에 힘쓰는 동시에, 보이지 않는 워터마크를 제거하거나 수정하기 어렵게 만드는 방법을 찾고 있습니다. 예를 들어, 메타의 AI 연구소 FAIR는 최근 Stable Signature라는 보이지 않는 워터마킹 기술에 대한 연구 결과를 공유했습니다. 이 기술은 특정 유형의 이미지 생성기에서 워터마킹 메커니즘을 이미지 생성 프로세스에 직접 통합하여, 워터마킹이 비활성화될 수 없는 오픈 소스 모델에 유용할 수 있습니다. 이러한 노력은 앞으로 더욱 치열해질 것으로 예상되는 경쟁 환경에서 특히 중요합니다.
AI 생성 콘텐츠를 의도적으로 오도하려는 개인 및 조직은 이를 탐지하기 위해 마련된 안전 장치를 우회할 방법을 찾을 것입니다. 업계 전반과 사회 전반에서 한 발 앞서 나갈 방법을 계속 찾아야 할 것입니다. 한편, 사용자는 콘텐츠가 AI에 의해 생성되었는지 여부를 판단할 때 콘텐츠를 공유하는 계정이 신뢰할 수 있는지 확인하거나, 부자연스러워 보이는 세부 사항을 찾는 등 여러 가지를 고려하는 것이 중요합니다.
AI 생성 콘텐츠 확산의 초기 단계입니다. 앞으로 몇 년 동안 AI 생성 콘텐츠가 더욱 보편화됨에 따라, 합성 콘텐츠와 비합성 콘텐츠 모두를 식별하기 위해 무엇을 해야 하고 무엇을 하지 말아야 하는지에 대한 사회적 논쟁이 있을 것입니다. 업계와 규제 당국은 AI를 사용하지 않고 생성된 콘텐츠와 AI를 사용하여 생성된 콘텐츠 모두를 인증하는 방식으로 나아갈 수 있습니다. 메타가 오늘 발표한 내용은 현재 플랫폼에서 공유되는 콘텐츠에 대해 적절하다고 판단되는 단계입니다. 하지만 메타는 계속해서 관찰하고 학습하며, 이러한 과정을 통해 접근 방식을 검토할 것입니다. 또한, 업계 동료들과의 협력을 지속하고 정부 및 시민 사회와의 대화를 이어갈 것입니다.
AI는 양날의 검
메타의 커뮤니티 표준은 콘텐츠 생성 방식에 관계없이 모든 플랫폼 게시물에 적용됩니다. 유해 콘텐츠와 관련하여 가장 중요한 것은 AI 생성 여부와 관계없이 이를 감지하고 조치를 취할 수 있다는 것입니다. AI 시스템의 사용은 유해 콘텐츠를 감지하는 데 큰 역할을 합니다. 메타는 수년 동안 AI 시스템을 사용하여 사용자를 보호해 왔습니다. 예를 들어, AI를 사용하여 증오 발언 및 기타 정책 위반 콘텐츠를 탐지하고 처리합니다. 이는 페이스북에서 증오 발언의 유병률을 2023년 3분기 기준 0.01-0.02%로 낮출 수 있었던 주요 이유 중 하나입니다. 즉, 10,000건의 콘텐츠 조회당 1~2건만이 증오 발언을 포함할 것으로 추정됩니다.
메타는 정책 시행을 돕기 위해 AI 기술을 사용하지만, 이 목적을 위한 생성형 AI 도구의 사용은 제한적이었습니다. 그러나 메타는 생성형 AI가 유해 콘텐츠를 더 빠르고 정확하게 삭제하는 데 도움이 될 수 있다고 낙관하고 있습니다. 또한, 선거와 같이 위험이 고조되는 시기에 정책을 시행하는 데 유용할 수 있습니다. 메타는 커뮤니티 표준에 대한 LLM(대규모 언어 모델)을 훈련시켜 콘텐츠가 정책을 위반하는지 여부를 판단하는 테스트를 시작했습니다. 이러한 초기 테스트 결과, LLM은 기존 머신러닝 모델보다 더 나은 성능을 발휘할 수 있습니다. 또한, 특정 상황에서 정책을 위반하지 않는다고 확신할 때 검토 대기열에서 콘텐츠를 제거하는 데 LLM을 사용하고 있으며, 이는 검토자가 규칙을 위반할 가능성이 높은 콘텐츠에 집중할 수 있는 역량을 확보해 줍니다.
AI 생성 콘텐츠는 독립적인 팩트 체크 파트너에 의해 사실 확인 대상이 될 수 있으며, 메타는 잘못된 정보가 포함된 콘텐츠에 라벨을 부착하여 사용자가 인터넷에서 유사한 콘텐츠를 접할 때 정확한 정보를 얻을 수 있도록 합니다.
메타는 10년 이상 AI 개발의 선구자였습니다. 메타는 발전과 책임이 함께 가야 하며, 그래야만 한다는 것을 알고 있습니다. 생성형 AI 도구는 엄청난 기회를 제공하며, 이러한 기술이 투명하고 책임감 있는 방식으로 개발될 수 있고 또 그렇게 해야 한다고 믿습니다. 그렇기 때문에 메타는 사용자들이 사실적인 이미지가 AI로 생성되었을 때 이를 알 수 있도록 돕고 싶어 하며, 가능한 것의 한계에 대해서도 투명하게 공개하고 있습니다. 메타는 도구 개선을 위해 사용자들이 도구를 어떻게 사용하는지에 대한 학습을 계속할 것이며, PAI와 같은 포럼을 통해 다른 사람들과 협력하여 공통 표준 및 안전 장치를 개발할 것입니다.