“딥페이크 성행으로 ‘얼굴인식 인증’ 신뢰 하락”
상태바
“딥페이크 성행으로 ‘얼굴인식 인증’ 신뢰 하락”
  • 김선애 기자
  • 승인 2024.02.05 08:42
  • 댓글 0
이 기사를 공유합니다

“2026년 기업 30%, 얼굴인식 솔루션 단독 사용 어려울 것”
생성형 AI 이용 딥페이크 막기 위한 여러 기술 함께 사용해야

[데이터넷] 얼굴 생체 인식 솔루션을 겨냥한 AI 딥페이크 공격으로 인해 기업의 30%가 2026년에는 신원 확인 및 인증 솔루션을 더 이상 단독으로 신뢰할 수 없을 것이라는 전망이 나왔다. 가트너는 이러한 전망을 발표하면서 PAD(Presentation attack detection), IAD(Injection attack detection), 이미지 검사 기술이라는 새로운 개념을 내놓았다.

얼굴인식을 통한 사용자 진위 여부를 분석하기 위해 PAD를 사용하고 있지만, 공격자는 PAD를 우회하는 방법을 알고 있으며, 생성형 AI를 이용한 딥페이크와 디지털 인젝션으로 기존 보안 기법을 무력화하고 있다. 가트너는 2023년 얼굴인식 우회를 위한 인젝션 공격이 2배 증가했다고 밝히며 PAD 외에 다른 기술을 추가로 사용해야 한다고 강조했다.

아키프 칸(Akif Khan) 가트너의 VP 애널리스트는 “지난 10년 동안 AI 분야는 수많은 변곡점을 거치면서 합성 이미지 생성이 기능해졌다. 이렇게 인공적으로 생성된 실존 인물의 얼굴 이미지는 ‘딥페이크’로 잘 알려져 있으며, 악의적인 공격자가 생체 인증을 약화시키거나 비효율적으로 만드는 데 사용될 수 있다”며 “결과적으로 조직은 인증 대상자의 얼굴이 실제 사람인지 딥페이크인지 구분할 수 없기 때문에 신원 확인 및 인증 솔루션의 신뢰도에 의문을 제기하기 시작할 것”이라고 설명했다.

칸 애널리스트는 “조직은 공급업체 중 이미지 검사와 결합된 IAD를 사용해 최신 딥페이크 기반 위협을 완화하는 데 특별히 투자해 온 업체와 협력해, 최소한의 제어 기준을 정의하기 시작해야 한다. 특히 ID 및 액세스 관리를 담당하는 보안 및 위험 관리 리더들은 실제 사람의 존재 여부를 증명할 수 있는 기술을 도입하고 계정 탈취를 방지하는 추가적인 단계를 구축하는 등 AI 기반 딥페이크 공격 위험을 완화할 수 있는 조치를 취해야 한다”고 덧붙였다.



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.