AI 요약
Google Threat Intelligence Group은 위협 행위자들이 AI를 정보 수집, 피싱 사기, 악성코드 개발에 사용하고 있음을 발견했습니다.
아직 고급 위협 행위자의 직접적인 공격은 없었으나, 기업 간 정보 탈취 공격은 빈번하게 발생했으며 Google은 이를 완화하고 보안을 강화했습니다.
이 보고서는 이러한 위협과 Google의 대응 방안을 상세히 설명합니다.
핵심 포인트
- Google Threat Intelligence Group은 위협 행위자들이 AI를 정보 수집, 피싱 사기, 악성코드 개발에 사용하고 있음을 발견했습니다.
- 아직 고급 위협 행위자의 직접적인 공격은 없었으나, 기업 간 정보 탈취 공격은 빈번하게 발생했으며 Google은 이를 완화하고 보안을 강화했습니다.
- 이 보고서는 이러한 위협과 Google의 대응 방안을 상세히 설명합니다.
긍정 / 부정 요인
긍정 요인
- AI 보안 위협에 대한 선제적 대응 및 기술력 과시
- Gemini 모델의 보안 강화 및 오용 방지 노력
부정 요인
- AI 기술의 악용 가능성 증가로 인한 잠재적 보안 리스크 부각
- 기업 간 정보 탈취 공격(모델 추출)의 빈번한 발생
기사 전문
구글, AI 악용한 사이버 위협 증가…피싱·악성코드 제작에 활용
최근 몇 달간 구글 위협 인텔리전스 그룹(GTIG)은 인공지능(AI)을 악용한 사이버 공격이 급증하고 있음을 관찰했습니다. 공격자들은 AI를 이용해 정보를 수집하고, 매우 정교한 피싱 사기를 제작하며, 악성코드를 개발하는 데 활용하고 있습니다.
GTIG는 아직 최첨단 모델이나 생성형 AI 제품을 대상으로 한 고도화된 지속 위협(APT) 그룹의 직접적인 공격은 확인되지 않았다고 밝혔습니다. 하지만 전 세계 민간 부문에서 AI 모델을 추출하려는 시도(기업 스파이의 일종)는 빈번하게 발생했으며, 구글은 이를 탐지하고 차단하는 데 성공했습니다. GTIG는 이러한 위협이 앞으로 AI 모델을 보유한 다른 기업들도 직면하게 될 가능성이 높다고 경고했습니다.
구글은 이러한 관찰 결과를 상세히 담은 보고서를 발표하고, 악의적인 활동을 방해하기 위해 관련 계정을 비활성화하는 등 대응 조치를 취했다고 밝혔습니다. 또한, 보안 통제 및 Gemini 모델의 오용 방지를 더욱 강화했습니다.
이번 보고서는 구글 클라우드 위협 인텔리전스 블로그에서 전문을 확인할 수 있습니다.