지난해 딥페이크 10배 증가···생성형 AI로 더 빠르게 성장
상태바
지난해 딥페이크 10배 증가···생성형 AI로 더 빠르게 성장
  • 김선애 기자
  • 승인 2024.02.25 02:13
  • 댓글 0
이 기사를 공유합니다

가트너 “딥페이크 분석해 공격자보다 앞서 보안 대응 마련해야”

[데이터넷] 딥페이크 위험도가 빠르게 높아지고 있다. 지난 한 해 동안 탐지된 딥페이크는 2022년보다 10배 많았으며, 생성형 AI를 이용해 더 적은 정보로도 정교한 딥페이크 제작이 가능해졌기 때문에 올해는 더 큰 폭의 상승세를 보일 것으로 예상된다. 가트너는 2026년까지 기업의 30%는 신원확인과 인증을 위해 생체인식 기술만을 단독으로 사용하지 못하게 될 것으로 내다봤다.

딥페이크는 꽤 오래 전에 등장한 기술이기 때문에 이를 탐지하는 기술도 다양하게 적용되고 있다. 쉽게 딥페이크 여부를 판단하는 기술 중 하나로, 생체인식 중 동영상 클립을 캡처하라는 메시지가 표시되며, 이를 이행하면 사용자 본인의 라이브 정보라는 사실을 알 수 있다. 음성지문을 캡처하는 방법도 많이 사용한다.

가트너는 ‘떠오르는 기술: AI와 딥페이크가 신원 확인에 미치는 영향’ 보고서에서 이러한 기술은 생성형 AI를 이용해 쉽게 우회할 수 있다고 지적했다.

공격자는 사용자의 카메라를 장악한 후 다른 기기에 나타난 딥페이크 이미지와 동영상을 이용해 라이브 정보로 오해하게 만든다. 혹은 딥페이크 이미지·동영상을 공급업체 API나 SDK에 삽입해 해당 이미지와 동영상이 디바이스 카메라를 통해 촬영된 것으로 오해하게 만든다. 초고해상도 카메라가 등장하면서 다른 기기의 영상을 이용해 생체인식을 시도해도 성공할 가능성이 매우 높아졌다고 보고서는 설명했다.

/가트너
/가트너

생체인식·상황정보 결합해 인증해야

이 문제를 해결하는 방법으로, 생체인식 단계에서 무작위로 사용자에게 간단한 행동을 추가하도록 요구하는 것을 제안한다. 얼굴인식 중 특정 방향으로 얼굴을 돌리는 등의 추가 명력을 내릴 수 있다. 이 때 실제 본인이 얼굴을 돌린다면 얼굴의 미세한 움직임과 피부에 비치는 빛 반사 등의 정보를 이용해 라이브 정보 여부를 판단할 수 있다. 미리 촬영된 조작된 영상을 삽입한다면, 촬영하는 상황과 다른 빛의 방향이나 부자연스러운 얼굴 움직임이 나타날 수 있다.

생성형 AI를 이용하는 공격자들이 이러한 방식도 우회하는 기술을 곧 개발할 것으로 보인다. 그래서 생체인식 정보뿐만 아니라 디바이스 프로파일링, 행동분석, 위치정보 등 추가 정보도 함께 수집해 분석해야 한다.

나아가 공격자가 딥페이크를 어떻게 만들고 있는지 이해하고 이를 식별, 차단하는 기술을 개발하는 것도 필수다. 생성형 AI가 빠르게 발전하고 있으며, 광범위하게 사용되고 있기 때문에 보안 기술 공급업체는 공격자보다 먼저 딥페이크 기술의 발전 방향을 알아내고 선제적으로 조치해야한다.

특정 인종이나 성별, 연령에 따라 딥페이크 분석을 위한 기본 데이터가 부족해 탐지 기술의 편향성이 나타날 수 있다. 따라서 머신러닝 모델 학습용 얼굴 데이터를 생성해 편향성 문제 없는 AI 탐지 기술을 찾아야 한다.



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.