[2020 보안 담당자 설문조사③] AI 보안 솔루션 ‘긍정’
상태바
[2020 보안 담당자 설문조사③] AI 보안 솔루션 ‘긍정’
  • 김선애 기자
  • 승인 2020.02.04 09:00
  • 댓글 0
이 기사를 공유합니다

AI 보안 솔루션, 보안 탐지 효과 높다 평가하면서도 도입은 ‘주저’
“AI 악용공격 우려 높지만 진화하는 공격 방어 위해 필요”

[데이터넷] 이번 설문조사에서 주목할만한 사항은 AI 활용 보안 솔루션에 대한 견해다. 응답자들은 AI 활용 보안 솔루션에 대해 긍정적으로 평가하면서도 도입은 주저하고 있는 것으로 나타났다.

‘AI를 활용한 보안 기술에 대해 어떻게 생각하는가’라는 질문에 대다수의 응답자가 긍정적인 답변을 보였다. 39%는 ‘기존의 보안 체계를 보완할 수 있는 방법’이라고 답했으며, 33.8%는 ‘보안 담당자가 보지 못했던 위협을 찾아주는 기술’이라고 평가했다. 또한 15.8%는 ‘보안 담당자의 업무를 줄일 수 있는 기술’이라고 답했다.

이 질문에 부정적인 답변은 적은 편이었다. ‘보안 전문성이 없으면 운영할 수 없는 기술’이라는 답이 7.5%, ‘보안 업무를 증가시키는 기술’이라는 답이 2.2%, ‘보안체계를 방해하고 보안 운영 복잡성을 높이는 기술’을 지목한 응답자가 1.8%였다. 기타 의견으로 ‘과대포장된 내용으로, 기존의 침입차단 통계 수준을 UI로 나타낸 것’, ‘아직 미완성된 기술’, ‘오탐 우려가 높음’ 등이 있었다.

AI 활용 보안 솔루션에 대한 긍정적인 평가에도 불구하고 솔루션 도입은 소극적이다. AI 활용 보안 솔루션을 사용하고 있는지 묻는 질문에 38.6%가 ‘도입을 검토하고 있지 않다’고 답했다. 29.4%는 ‘AI를 활용해 보안 수준을 높일 수 있는 방법이 있는지 검토하고 있다’고 답했으며, 15.8%는 ‘AI 활용보안 솔루션 도입을 검토하고 있다’고 답했다.

AI 활용 보안 솔루션을 사용하고 있다는 응답자는 18.4%에 그쳤다. 7%는 악성코드 탐지·분석에, 11.4%는 보안관제와 내부위협 탐지·분석, FDS 등에 사용한다고 답했다.

“AI, 위협 탐지 효과 높아”

AI 활용 보안 솔루션의 가장 큰 한계는 노이즈가 많고, 전문인력이 없으면 운영이 어렵다는 것이다. 보안벤더들은 위협 수준을 스코어링 해 대응 우선순위를 제안하며, 직관적인 UI를 통해 이러한 문제를 해결하고 있다고 소개한다. 실제로 AI 보안 솔루션의 효과에 대해 ‘노이즈가 많아 업무가 증가했다’는 답은 3.6%에 그쳐 AI 활용 보안 솔루션의 문제는 상당부분 해결됐다고 볼 수 있다.

이 질문에 절반 이상(53.3%)의 응답자가 ‘기존에 보지 못했던 보안 위협을 효과적으로 탐지할 수 있게 됐다’고 답했으며, ‘보안 조직의 업무를 효율화하는 효과가 있었다’, ‘보안 투자 효과를 가시적으로 보여줄 수 있는 객관적인 데이터를 도출해 낼 수 있었다’는 답이 각각 14.6%였다.

AI 활용 보안 솔루션을 사용하지 않는 이유를 묻는 질문에는 28.9%가 ‘솔루션 도입을 검토하는 중’이라고 답해 이 솔루션 사용에 부정적이지 않은 것으로 나타났다. 그러나 솔루션의 완성도 문제, 노이즈(오탐) 문제, 전문인력의 문제, 비싼 가격 등의 문제에 대한 우려는 여전히 남아있다.

18.4%의 응답자가 ‘AI 보안 솔루션의 비용 부담이 커서 도입이 어렵다’고 답했으며, 17.9%는 ‘AI 보안 솔루션의 효과가 그리 크지 않다고 판단하고 있다’, 14.9%는 ‘전문 인력이 부족해 AI 보안 솔루션을 운영하기 어렵다’고 답했다. ‘어떤 제품이 AI 보안 솔루션인지 모른다’는 답도 13.9%에 이르렀다.

‘적대적 머신러닝’, 긍-부정 의견 팽팽

AI와 관련, 올해 보안 전망에서 빠지지 않는 것이 AI 기술을 악용할 것이라는 점이다. 공격자들이 오염된 데이터를 AI에 주입해 잘못된 계산을 하도록 하거나(적대적 머신러닝), AI를 이용해 더 지능화된 공격을 일으킬 것이라는 점이다.

특히 적대적 머신러닝에 대한 우려가 높은 편인데, AI는 스스로 학습하며 계산하기 때문에 어떤 과정을 거쳐 결론에 도달하게 됐는지 설명하지 않는다. AI 알고리즘은 점점 더 적은 데이터만으로도 학습이 가능하도록 설계되고 있다. 이 때문에 오염된 데이터를 학습해 잘못된 결과를 도출한다 해도 사용자는 이 사실을 알 수 없게 된다.

이 같은 우려에 대한 견해를 묻는 질문에 찬-반 의견에 큰차이가 있다고 볼 수 없다. 31.1%의 응답자는 ‘적대적 머신러닝 우려가 있지만, 위협이 고도화·지능화·대규모화 되고 있는 만큼, AI 활용 보안 기술을 사용해야 한다고 생각한다’고 답한 반면, 27.6%는‘AI 기술의 완성도가 떨어지기 때문에 오염된 데이터를 학습시키는 적대적 머신러닝으로 인한 역효과가 등장할 가능성이 높다’고 답했다.

‘적대적 머신러닝 역시 마케팅 용어의 하나라고 생각한다’는 답이 14.9%를 차지했으며, 11%는 ‘적대적 머신러닝’이 무엇인지 모른다고 답했다. ‘적대적

머신러닝 우려로 인해 AI 보안 솔루션 도입을 주저하게 된다’는 답은 3.9%에 그쳤다.



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.