가트너 “AI 과대광고, 진화한 AI 모델 도입 저해”
상태바
가트너 “AI 과대광고, 진화한 AI 모델 도입 저해”
  • 김선애 기자
  • 승인 2024.01.11 11:10
  • 댓글 0
이 기사를 공유합니다

AI 공급업체, 비현실적인 ‘파괴적 혁신’ 주장해 진보한 AI 모델 도입 막아
사이버 보안에 AI 도입 시 개인정보 보호·적대적 AI 등 고려해야

[데이터넷] AI를 제외하고는 아무것도 이야기할 수 없는 시대가 됐다. 모든 조직은 AI를 이용해 의사결정 과정을 효율화하고 생산성을 높이고자 한다. 그런데 지나치게 과장된 기대가 AI의 진화를 방해하며 보안 문제 해결을 어렵게 할 수 있다.

가트너의 ‘2024년 예측: AI 및 사이버 보안- 혼란을 기회로 전환하는 방법’ 보고서에서는 AI의 과대광고가 비현실적인 ‘파괴적 혁신’을 주장하면서 멀티모달 모델, 복합 AI 등 생성형 AI 진화의 다음 단계를 무시하도록 한다고 비판했다.

가트너는 AI를 도입할 때, AI 기능과 제품을 점진적으로 통합하는 다년간의 접근 방식을 구축하며, AI 도입으로 인한 단기적인 지출 증가와 장기적인 기술 요구 변화에 대비한 계획을 세워야 한다고 조언했다.

보안 분야에 생성형 AI를 도입할 때는 잠재적인 개인정보 보호 문제를 고려하고, 예상되는 이점과 비용을 전반적으로 살펴야 한다. 또 AI를 통한 업무 자동화만을 기대할것이 아니라 인력의 전문성 강화를 고려한 투자 우선순위를 정할 것을 권고했다.

가트너 '생성형 AI 우려사항에 대한 IT 경영진 설문조사'. 응답자의 42%가 개인정보보호에 대해 우려하고 있으며 환각(14%), 보안(13%) 등이 그 뒤를 이었습니다. 가트너는 AI가 단기적인 환멸을 낳게 되면서 보안 및 위험 관리 리더는 AI의 진화에 대비해야 한다고 권고했다.
가트너 '생성형 AI 우려사항에 대한 IT 경영진 설문조사'. 응답자의 42%가 개인정보보호에 대해 우려하고 있으며 환각(14%), 보안(13%) 등이 그 뒤를 이었다. 가트너는 AI가 단기적인 환멸을 낳게 되면서 보안 및 위험 관리 리더는 AI의 진화에 대비해야 한다고 권고했다.

“조직 70%, 탐지·대응에 멀티 에이전트 AI 도입”

이 보고서에서는 AI에 대한 긍정적인 전망과 부정적인 전망을 함께 게시했다. 보안 위협 탐지와 대응에 AI를 사용해 보안성을 크게 높일 수 있으며, 2028년까지 생성형 AI 증강 기술로 보안 기술 격차를 해소하면 초급 직급의 50%가 전문교육을 받을 필요가 없게 될 것이라고 예측했다.

위협 탐지와 사고대응에 멀티 에이전트 AI를 도입하는 비율은 현재 5%에서 2028년 70%로 증가하며, 직원을 대체하는 것이 아니라 보강하는 역할을 할 것이라고 내다봤다. 더불어 2026년까지 개발조직의 40%가 AI를 이용해 안전하지 않은 코드의 자동 치료를 기본 기능으로 사용할 것으로 보인다.

AI로 인한 부작용도 있다. 2025년까지 생성형AI로 인해 필요한 보안 리소스가 늘어나 애플리케이션·데이터 보안 지출이 15% 이상 증가할 것이며, 딥페이크 이용 공격으로 생체인식을 단독 신원인증으로 사용하지 못한다고 생각하는 기업이 2026년 30%로 늘어날 것으로 예상된다.

이 문제를 해결하기 위해 가트너는 AI 신뢰, 위험 및 보안 관리(AI TRiSM) 기술 사용을 권고하고 있다. 가트너는 지난 10월 발표한 ‘2024년 주목해야 할 10대 전략 트렌드’에서 AI TRiSM을 활용하면 오류와 불법 정보를 80%까지 줄이고 의사 결정의 정확성을 높이게 될 것이라고 예측했다.

AI TRiSM은 모델옵스(ModelOps), 사전 예방적 데이터 보호, AI 전용 보안, 데이터 및 모델 드리프트와 의도되지 않은 결과를 포함한 모델 모니터링, 타사 모델 및 애플리케이션 입출력 리스크 제어 등에 대한 도구를 제공한다.

AI 보안 비서, 충분히 성숙된 기술인지 살펴봐야

최근 AI 이용 보안 기술에서 뜨거운 관심을 받고 있는 것이 생성형 AI를 보안운영에 사용하는 것이다. 자연어를 이용해 탐지한 이벤트를 분류·분석해 보안 분석가의 업무를 크게 줄일 수 있을 것으로 기대되고 있지만, AI의 편향성을 간과하기 때문에 잘못된 의사결정을 내릴 수 있다.

가트너는 생성형 AI가 엄청난 보안 개선 효과를 가져올 것과 같은 기대가 있었지만, 실제로는 보안운영에 즉시 적용하기에 성숙도가 낮고 단편화된 워크플로우와 충돌하는 문제 등으로 인한 한계를 보여줬다.

또한 보안조직이 기존 협업 워크플로우에 AI 비서를 통합하거나 타사 보안운영 공급자와 협력할 때 충돌이 발생하기도 한다. 더불어 대화형 인터페이스를 제공하는 도구가 너무 많아 오히려 AI 피로가 발생한다는 문제도 있으며, 특정 공급업체에 종속될 수 있다는 부작용도 발생할 수 있다.

그래서 가트너는 새로 발표되는 서비스를 평가하되, 기능과 제품의 성숙도가 높아지면 통합 계획을 세울 것을 조언했다. 더불어 공격자도 생성형 AI를 사용한다는 것을 감안해 위협 환경의 예측할 수 없는 변화에 대비할 것을 권고했다.

예산 대비 효과 검증할 프레임워크 필요

AI 도입 예산에 대한 정확한 예측도 중요하다. AI 보안 비서와 같은 생성형 AI를 이용한 보안 운영 서비스가 분석가의 업무를 줄이고 인력부족 문제를 해결하며 사고 발생 가능성을 줄여 전반적인 예산절감 효과를 거둘 수 있다고 주장한다. 그러나 생성형 AI 기술과 서비스 도입·운영 비용 전체를 감안했을 때 실제 투자 효과가 있는지 살펴보면 그렇지 않을 가능성도 있다.

또한 보안 공급업체는 생성형 AI의 추가 기능에 대한 프리미엄 가격을 제안하는데, 이 서비스를 이용해 보안운영을 개선했다는 정확한 지표가 없어 예산 계획을 수립하는데 어려움을 겪을 수 있다.

가트너는 속도, 정확성, 생산성 등 실제 지표에 대한 영향을 측정하는 비즈니스 가치 중심 AI 평가 프레임워크를 도입해 보안 제품에서 새로 발표된 생성형 AI 기능을 정확하게 평가할 것을 권고했다.

실시간 사고 탐지보다는 사고 대응과 노출관리 탐지와 대응에 생성형 AI 파일럿을 사용해 오탐으로 인한 문제를 예방하고 초급 분석가의 분석 역량 제고에 활용할 수 있도록 한다. 이 같은 단기적인 목표를 설정·운영하는 한편, 보안운영팀의 의사결정 과정을 보호해 유망한 생성형 AI 기술 구현 시 발생할 수 있는 저항을 피하도록 한다.

AI 증강으로 보안기술 격차해소

보고서는 보안 인력의 기술격자가 점점 더 커지고 있다는 점을 지적하면서 AI를 통해 이 문제를 해결할 수 있다고 설명하기도 했다. 조직이 원하는 보안인력은 높은 전문성을 가진 사람으로, 전 세계적으로 340만개의 공개 모집이 진행되고 있다. 고급전문가를 원하는 추세는 앞으로도 계속 될 것인데, 아이러니하게도 초급 보안인력이 고급 인력으로 성장할 수 있는 기회는 많지 않다는것이 현실이다.

그래서 AI가 직원 역량을 강화할 수 있도록 돕는 인력 증강(AI augmentation of the workforce)이 필요하다고 가트너는 강조하고 있다. 생성형 AI는 특정작업과 역할을 지원할 수 있으며, 지식 근로자의 워크플로우를 보완하는데 효과를 발휘할 수 있다. 생성형 AI 증강은 조직이 올바른 교육을 통해 인력의 전문성을 높이면서 적성에 맞는 사이버 보안 직원 고용에도 긍정적인 역할을 할 수 있다고 설명했다.

생성형 AI 우려사항에 대한 IT 경영진 설문조사. 응답자의 42%가 개인정보보호에 대해 우려하고 있으며 환각(14%), 보안(13%) 등이 그 뒤를 이었습니다. 가트너는 AI가 단기적인 환멸을 낳게 되면서 보안 및 위험 관리 리더는 AI의 진화에 대비해야 한다고 권고했다.



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.