메인 콘텐츠로 건너뛰기
MSFT logo
MSFTNASDAQ긍정AI/기술

새로운 연구, AI가 온라인에서 무엇을 신뢰할 수 있는지 어떻게 형성하는지 탐구

microsoft
중요도

AI 요약

Microsoft는 AI로 인한 딥페이크 및 콘텐츠 조작 문제에 대응하기 위한 미디어 무결성 및 인증 보고서를 발표했습니다.

이 보고서는 콘텐츠 출처, 제작 도구, 수정 여부를 추적하는 기술의 중요성을 강조하며, C2PA와 같은 표준화 노력을 통해 신뢰할 수 있는 정보 제공을 목표로 합니다.

이는 Microsoft의 AI 기술 리더십을 강화하고 관련 생태계 구축에 기여할 것으로 예상됩니다.

핵심 포인트

  • Microsoft는 AI로 인한 딥페이크 및 콘텐츠 조작 문제에 대응하기 위한 미디어 무결성 및 인증 보고서를 발표했습니다.
  • 이 보고서는 콘텐츠 출처, 제작 도구, 수정 여부를 추적하는 기술의 중요성을 강조하며, C2PA와 같은 표준화 노력을 통해 신뢰할 수 있는 정보 제공을 목표로 합니다.
  • 이는 Microsoft의 AI 기술 리더십을 강화하고 관련 생태계 구축에 기여할 것으로 예상됩니다.

긍정 / 부정 요인

긍정 요인

  • AI 시대의 신뢰 문제 해결을 위한 Microsoft의 선도적 역할 부각
  • 미디어 무결성 및 인증 기술 표준화 노력 (C2PA 공동 설립)
  • AI 기술의 긍정적 활용 및 잠재적 해악 감소에 대한 기여 의지 표명

부정 요인

  • 딥페이크 기술의 발전으로 인한 온라인 콘텐츠 신뢰도 저하 문제 심화
  • 완벽한 해결책 부재 및 일부 인증 방법의 한계점 존재

기사 전문

마이크로소프트, 딥페이크 시대 '미디어 진위 판별' 해법 모색 보고서 발표 AI 시대, 쏟아지는 가짜 정보 속 진실을 가려낼 방법은 무엇일까? 마이크로소프트(MSFT)가 오늘 발표한 '미디어 무결성 및 인증: 현황, 방향 및 미래(Media Integrity and Authentication: Status, Directions, and Futures)' 보고서는 이러한 시대적 과제에 대한 해법을 모색하고 있습니다. 보고서는 딥페이크 기술의 발달로 인해 뉴스, 선거, 브랜드, 일상적인 상호작용 등 모든 영역에서 신뢰가 위협받고 있다고 지적하며, 무엇이 진짜이고 무엇이 조작된 것인지 의문을 제기합니다. 현재의 미디어 인증 방법들을 평가하고 그 한계를 파악하며, 이를 강화할 수 있는 잠재적인 방안들을 탐구하여 소비자들이 온라인 콘텐츠에 대해 정보에 입각한 결정을 내릴 수 있도록 돕는 것을 목표로 합니다. 보고서의 공동 저자인 제시카 영(Jessica Young) 마이크로소프트 최고과학책임자실 과학기술정책국장은 "어떤 단일 해결책도 디지털 속임수를 자체적으로 막을 수는 없다"고 강조합니다. 그는 출처(provenance), 워터마킹, 디지털 지문 채취와 같은 방법들이 콘텐츠 제작자, 사용된 도구, 수정 여부 등 유용한 정보를 제공할 수 있다고 설명합니다. 영 국장은 "사람들은 미디어의 출처와 이력에 대한 정보가 부족하거나, 정보의 품질이 낮거나 오해의 소지가 있을 때 속임수에 넘어갈 수 있다"며, "보고서의 목표는 대중이 신뢰할 수 있는 고품질의 출처 정보를 제공하기 위한 로드맵을 제시하는 것"이라고 덧붙였습니다. 특히 딥페이크가 더욱 파괴적으로 변하고 각국에서 출처 법규가 강화됨에 따라, 고품질 콘텐츠 지표를 인식하도록 돕는 것이 중요해지고 있습니다. 마이크로소프트는 2019년 미디어 출처 기술을 선도적으로 개발했으며, 2021년에는 미디어 진위 표준화를 위한 콘텐츠 출처 및 인증 연합(C2PA)을 공동 설립하는 등 이 분야에서 오랜 노력을 기울여 왔습니다. 영 국장은 이번 연구의 동기에 대해 "두 가지 측면이 있다"고 설명합니다. 첫째는 "생성형 AI 역량이 점점 더 강력해지고 있으며, 카메라로 촬영된 실제 콘텐츠와 정교한 딥페이크를 구별하기 어려워지고 있는 현재의 순간을 인식했기 때문"입니다. 이에 따라 "콘텐츠가 AI에 의해 생성되었는지 또는 조작되었는지 공개하고 검증하는 기존 기술을 사용하려는 관심과 요구가 급증하고 있다"고 말합니다. 둘째는 "이러한 기술이 어떻게 사용되고 이해되는지에 따라 궁극적으로 해악보다 이익을 더 많이 창출하도록 돕고 싶다"는 바람입니다. 보고서는 미디어 진위성에 대한 신뢰를 높이는 경로를 제시하며, 다양한 미디어 무결성 방법의 약점을 완화하기 위해 '고신뢰 인증(high-confidence authentication)'이라는 방향을 제안합니다. 영 국장은 C2PA 출처 정보를 감지할 수 없는 워터마크와 연결하면 미디어 출처에 대한 비교적 높은 신뢰도를 얻을 수 있다고 언급합니다. 하지만 보고서는 카메라와 같은 전통적인 오프라인 장치의 출처 정보는 보안 기능이 부족하여 조작이 더 쉽기 때문에 신뢰도가 떨어질 수 있다는 점 등 여러 한계점도 지적합니다. 모든 공격을 막거나 특정 플랫폼이 출처 신호를 제거하는 것을 막을 수는 없기 때문에, "강력한 보안이 내장된 가장 신뢰할 수 있는 지표를 어떻게 제시하고, 필요하다면 복구를 허용하거나 수동 디지털 포렌식 작업을 지원하는 추가 방법으로 강화할 것인지"가 과제라고 영 국장은 말합니다. 이번 연구는 기존 연구와 달리 두 가지 '덜 탐구된' 사고방식을 조사했습니다. 첫 번째는 검증 과정에서 실제 콘텐츠를 합성처럼 보이게 하거나 가짜 콘텐츠를 진짜처럼 보이게 하기 위해 출처 정보나 미디어 자체를 조작할 수 있는 '사회기술적 공격(sociotechnical attacks)'입니다. 영 국장은 "예를 들어, 경기장 사진에서 홈팀을 응원하는 관중이 80%라고 가정해 보자. 원정팀이 '저것은 모두 가짜 관중이다'라고 온라인에서 주장할 수 있다. 누군가 사진 구석의 한 사람을 사소하게 편집하면, 현재 방법으로는 AI 생성으로 간주될 수 있다. 진위성을 지원해야 하는 이러한 방법들이 오히려 실제 이야기 대신 가짜 이야기를 강화하는 것이다"라고 설명합니다. 두 번째 핵심 주제는 C2PA의 작업을 기반으로 콘텐츠 자격 증명을 더욱 내구성 있게 만들고 신뢰성을 해결하는 것입니다. 영 국장은 "고보안 시스템부터 덜 안전한 오프라인 장치에 이르기까지 다양한 환경에서 출처 정보를 추가하고 유지하는 방법과 그것이 신뢰성에 미치는 영향에 대해 살펴보았다"며, 이 부분이 특히 새로운 연구라고 강조합니다. 디지털 미디어 인증이 어려운 이유에 대해 영 국장은 "하나의 크기로 모든 것에 맞는 해결책이 없기 때문"이라고 설명합니다. 이미지, 오디오, 비디오 등 다양한 형식과 각기 다른 신호 제약이 있으며, 텍스트는 또 다른 복잡성을 가집니다. 또한, 어느 정도의 투명성이 적절한지에 대한 요구사항과 의견도 다양합니다. 일부 사용자는 개인 정보가 디지털 출처에 포함되는 것을 원하지 않을 수 있고, 다른 한편에서는 제작자나 아티스트가 자신의 정보가 포함되기를 원할 수 있습니다. 앞으로 마이크로소프트는 AI 생성 또는 편집 콘텐츠가 더욱 보편화됨에 따라 안전한 출처 정보를 가진 실제 콘텐츠의 사용이 점점 더 중요해질 것으로 보고 있습니다. 언론사, 유명 인사, 정부 및 기업은 자신이 공유하는 콘텐츠의 진위성을 인증할 이유가 충분합니다. 예를 들어, 뉴스 매체가 행사에 대한 사진을 촬영할 때 안전한 출처 정보를 첨부하면 시청자에게 콘텐츠의 신뢰성을 보여줄 수 있습니다. 영 국장은 "정부 기관도 대중이 공식 문서나 미디어가 공공 관심사에 대한 신뢰할 수 있는 정보임을 알도록 하는 데 관심이 있다"고 말합니다. 또한, 합법적인 목적으로 미디어에 대한 AI 수정이 "점점 더 흔해짐"에 따라, 안전한 출처는 일반 독자나 시청자가 단순히 해당 콘텐츠를 가짜 또는 기만적인 것으로 일축하는 것을 방지하는 데 중요한 맥락을 제공할 수 있다고 덧붙입니다. 마지막으로 영 국장은 "업계와 규제 당국을 위해, 이 분야에 대한 지속적인 사용자 연구가 대중에게 이 정보를 일관되고 유용하게 표시하는 데 얼마나 중요한지 주목한다. 실제 실질적이고 유용한 것이 되도록 해야 한다"며, "우리가 도울 수 있는 기술은 제한적이며, 오해되거나 잘못 사용되어 역효과를 내는 것을 원하지 않는다"고 강조했습니다.

관련 기사