AI 요약
META는 2024년 영국 총선을 앞두고 플랫폼 무결성 강화를 위해 200억 달러 이상을 투자하고 4만 명의 인력을 투입하는 등 선제적으로 대비하고 있습니다.
특히 허위 정보 확산 방지를 위해 15,000명의 콘텐츠 검토 인력을 운영하며, 선거 관련 광고 규제 및 투명성 강화 조치를 시행하여 긍정적인 영향을 기대할 수 있습니다.
핵심 포인트
- META는 2024년 영국 총선을 앞두고 플랫폼 무결성 강화를 위해 200억 달러 이상을 투자하고 4만 명의 인력을 투입하는 등 선제적으로 대비하고 있습니다.
- 특히 허위 정보 확산 방지를 위해 15,000명의 콘텐츠 검토 인력을 운영하며, 선거 관련 광고 규제 및 투명성 강화 조치를 시행하여 긍정적인 영향을 기대할 수 있습니다.
긍정 / 부정 요인
긍정 요인
- 플랫폼 무결성 강화 노력
- 200억 달러 이상 투자
- 4만 명 인력 투입
- 허위 정보 확산 방지 노력
- 선거 관련 광고 규제 및 투명성 강화
기사 전문
META, 영국 총선 앞두고 플랫폼 안전 강화 나선다
2024년은 전 세계적으로 수많은 국가와 지역에서 지도자를 선출하는 선거가 치러지는 해입니다. 소셜 미디어 기업 Meta는 이러한 흐름에 맞춰 플랫폼의 무결성을 보존하기 위한 노력을 강화하고 있으며, 특히 7월 4일 예정된 영국 총선을 앞두고 집중적인 준비에 나섰습니다.
Meta는 지난해부터 영국 총선을 포함한 각국의 선거를 지원하기 위해 전담팀을 꾸리고 맞춤형 접근 방식을 개발해왔습니다. 이러한 노력은 2016년 이후 전 세계 200여 건의 선거 경험과 영국 온라인 안전법(Online Safety Act)의 규제 프레임워크를 바탕으로 합니다. Meta는 이러한 경험을 통해 팀, 기술, 투자를 가장 효과적인 영역에 집중하고 있습니다.
Meta는 2016년 이후 안전 및 보안 분야에 200억 달러 이상을 투자했으며, 관련 글로벌 팀 규모를 4배로 늘려 약 4만 명에 달하는 인력을 확보했습니다. 이 중 1만 5천 명은 Facebook, Instagram, Threads 전반의 콘텐츠를 검토하는 전문 인력입니다. 지난 8년간 Meta는 사회적 이슈, 선거, 정치 관련 광고에 대한 업계 최고 수준의 투명성 도구를 도입하고, 선거 개입 및 유권자 사기 방지를 위한 포괄적인 정책을 개발했으며, 소셜 미디어 플랫폼 중 최대 규모의 제3자 팩트체크 프로그램을 구축하여 허위 정보 확산에 대응해왔습니다.
최근에는 생성형 AI와 같은 신기술에 대한 책임감 있는 접근을 약속하며, 이러한 기술을 활용한 콘텐츠에 대한 정책도 강화하고 있습니다. Meta는 선거 기간 동안 이러한 자원을 총동원할 예정이며, Facebook과 Instagram에 새로운 광고 캠페인을 시작하여 관련 도구 및 기능에 대한 인식을 높일 계획입니다. 또한, 영국 전용 선거 운영 센터(Elections Operations Centre)를 가동하여 정보, 데이터 과학, 엔지니어링, 연구, 운영, 콘텐츠 정책, 법무팀 등 회사 전반의 전문가들이 실시간으로 잠재적 위협을 식별하고 앱 및 기술 전반에 걸쳐 구체적인 완화 조치를 시행하도록 할 것입니다.
Meta는 이번 선거 기간 동안 네 가지 핵심 영역에 집중할 예정입니다.
첫째, 허위 정보와의 전쟁입니다. Meta는 폭력을 유발하거나 투표를 방해하는 등 가장 심각한 유형의 허위 정보를 Facebook, Instagram, Threads에서 삭제합니다. 이러한 정책을 위반하지 않는 콘텐츠에 대해서는 국제 팩트체킹 네트워크(IFCN) 또는 유럽 팩트체킹 표준 네트워크(EFCSN) 인증을 받은 독립적인 팩트체킹 기관과 협력하여 콘텐츠를 검토하고 평가합니다. 영국에서는 Full Fact, Reuters, Logically Facts, FactCheckNI 등이 참여합니다. 팩트체커에 의해 사실이 아닌 것으로 판명된 콘텐츠에는 경고 라벨을 부착하고 피드 및 탐색에서의 노출을 줄여 사용자들이 해당 콘텐츠를 덜 보게 합니다. 선거 기간 동안에는 팩트체킹 파트너들이 선거 관련 콘텐츠를 더 쉽게 찾고 평가할 수 있도록 지원하여 신속한 대응을 강화할 것입니다. 또한, 키워드 탐지를 통해 관련 콘텐츠를 한곳에 모아 팩트체커들이 쉽게 찾을 수 있도록 할 예정입니다. 팩트체킹 파트너들은 강력한 검색 기능을 갖춘 새로운 연구 도구인 Meta Content Library에 온보딩되어 업무를 지원받게 됩니다. Meta는 사실이 아닌 콘텐츠를 포함하는 광고를 허용하지 않으며, 영국을 대상으로 하는 광고 중 투표를 방해하거나 선거의 정당성 및 결과에 의문을 제기하거나 조기 승리를 주장하는 내용을 포함하는 광고도 금지합니다.
둘째, 영향력 작전(Influence Operations)에 대한 대응입니다. Meta는 영향력 작전을 전략적 목표를 위해 여론을 조작하거나 왜곡하려는 조직적인 노력으로 정의하며, 이는 허위 정보를 전술로 포함할 수도, 포함하지 않을 수도 있습니다. 위장 신분을 이용한 은밀한 캠페인부터 정부 통제 언론의 노골적인 노력까지 다양합니다. Meta는 이러한 은밀한 영향력 작전에 대응하기 위해 조직적인 비정상적 행동을 중단시키는 전문 글로벌 팀을 구축했으며, 2017년 이후 200개 이상의 적대적 네트워크를 조사하고 차단했습니다. 이는 분기별 위협 보고서(Quarterly Threat Reports)를 통해 공개됩니다. Meta는 이러한 노력을 지속적으로 강화하며, 정부 통제 언론에 대해서는 Facebook, Instagram, Threads에서 라벨을 부착하여 사용자들이 해당 콘텐츠가 정부의 편집 통제를 받는 출처에서 나왔음을 알 수 있도록 합니다. 또한, 러시아 국영 언론에 대한 새로운 강화 조치를 적용하여 EU와 영국에서 차단하고 전 세계적으로 게시물을 하향 조정했습니다. Graphika의 최근 연구에 따르면 이러한 조치로 인해 해당 페이지의 게시물 양은 55%, 참여율은 94% 감소했으며, 러시아 국영 언론 자산의 절반 이상이 게시를 중단한 것으로 나타났습니다.
셋째, 생성형 AI(GenAI) 기술 남용과 관련된 위험을 완화합니다. Meta의 커뮤니티 표준 및 광고 표준은 AI 생성 콘텐츠를 포함한 모든 콘텐츠에 적용되며, 정책 위반 시 조치가 취해집니다. AI 생성 콘텐츠는 독립적인 팩트체킹 파트너의 검토 및 평가 대상이 될 수 있습니다. '수정됨(Altered)'이라는 평가 옵션에는 '조작되거나 변형된 오디오, 비디오 또는 사진'이 포함되며, 이러한 평가를 받은 콘텐츠는 라벨이 부착되고 피드에서 노출이 줄어듭니다. 또한, 이미 사실이 아닌 것으로 판명된 콘텐츠를 포함하는 광고는 게재할 수 없습니다. Meta는 정책을 위반하지 않는 콘텐츠라도 포토리얼리스틱 콘텐츠가 AI를 사용하여 생성되었음을 사용자가 알 수 있도록 하는 것이 중요하다고 믿습니다. Meta AI로 생성된 포토리얼리스틱 이미지는 라벨링되며, Google, OpenAI, Microsoft, Adobe, Midjourney, Shutterstock 등에서 Facebook, Instagram, Threads에 게시하는 AI 생성 이미지는 해당 기업들의 계획에 따라 라벨링됩니다. 사용자가 AI 생성 이미지를 공유할 때 공개할 수 있는 기능도 추가하여 Meta가 라벨을 부착할 수 있도록 했습니다. 디지털 방식으로 생성되거나 수정된 이미지, 비디오 또는 오디오 콘텐츠가 중요한 문제에 대해 대중을 심각하게 오도할 위험이 있다고 판단되는 경우, 더 눈에 띄는 라벨을 추가하여 사용자에게 더 많은 정보와 맥락을 제공할 수 있습니다. Meta에서 사회적 이슈, 선거 또는 정치와 관련된 광고를 게재하는 광고주는 AI를 포함한 디지털 방식으로 생성되거나 수정된 포토리얼리스틱 이미지 또는 비디오, 또는 사실적으로 들리는 오디오를 사용한 경우 특정 경우에 이를 공개해야 합니다. 이는 업계 최고 수준의 광고 투명성 외에 추가되는 사항으로, 광고주가 신원을 증명하고 영국 거주자임을 확인할 수 있는 검증 절차, 각 광고의 배후를 보여주는 "Paid for by" 고지, 그리고 모든 사람이 어떤 광고가 게재되고 있는지, 타겟팅 정보, 지출 금액을 확인할 수 있는 광고 라이브러리(Ad Library)를 포함합니다. 인터넷 전반에 AI 생성 콘텐츠가 나타나고 있기 때문에 Meta는 업계 다른 기업들과 공동 표준 및 지침을 마련하기 위해 협력하고 있습니다. Partnership on AI의 회원이며, 2024년 선거에서 기만적인 AI 콘텐츠 확산을 방지하기 위한 기술 협약에도 서명했습니다.
넷째, 후보자 안전입니다. Meta는 플랫폼이 국회의원과 후보자들이 중요한 이슈에 대해 유권자들과 안전하고 긍정적인 방식으로 소통할 수 있도록 지원하기를 바랍니다. Meta의 규칙은 공개 인물과 일반 개인을 구분하여 공개적인 토론을 허용하지만, 공인들을 악의적인 게시물과 행동으로부터 보호하기 위한 다양한 조치를 시행합니다. 커뮤니티 표준은 Facebook, Instagram, Threads에서 허용되는 것과 허용되지 않는 것을 명시합니다. 커뮤니티와 전 세계 전문가들의 피드백을 통해 공인들을 보호하기 위한 특정 정책을 만들었습니다. 증오 발언의 경우, 인종, 종교, 국적, 성별, 성 정체성, 성적 지향 또는 기타 정의된 보호 특성을 기반으로 한 공격을 삭제합니다. 폭력 및 선동의 경우, 심각한 폭력을 선동하거나 조장하는 언어를 삭제하고 계정을 비활성화하며, 신체적 피해 또는 공공 안전에 대한 직접적인 위협의 실제 위험이 있다고 판단될 경우 법 집행 기관과 협력합니다. 괴롭힘 및 학대의 경우, 국회의원과 후보자들을 반복적인 원치 않는 연락 및 성희롱으로부터 보호하고, 공인이 게시물이나 댓글에 직접 태그되거나 직접 신고하는 경우 더 많은 학대적인 게시물을 삭제합니다. 또한, 정당들과 긴밀히 협력하여 후보자들이 우려되는 사항을 신고하도록 장려하고, 소셜 미디어 보안에 대한 모범 사례를 지원하며, 학대 및 위협에 대해 공개 소셜 미디어 페이지를 모니터링합니다. Meta는 후보자들을 위한 안전 교육 세션을 개최하여 플랫폼에서의 괴롭힘에 대처하기 위한 지원 내용을 설명할 예정입니다. 이 모든 정보는 후보자들을 위한 영국 선거 센터(UK Election Center for Candidates)에서도 확인할 수 있습니다. Meta의 선거 접근 방식에 대한 자세한 내용은 준비된 선거 페이지(Preparing for Elections page)에서, WhatsApp에 대한 정보는 선거 웹사이트(elections website)에서 확인할 수 있습니다.