카스퍼스키 “공격자·보안조직, AI에 책임 전가”
상태바
카스퍼스키 “공격자·보안조직, AI에 책임 전가”
  • 김선애 기자
  • 승인 2023.09.07 15:29
  • 댓글 0
이 기사를 공유합니다

‘고통 거리두기’…AI 공격·방어 도구에 책임 떠넘겨
AI에 대한 바른 교육 필요…신뢰할 수 있는 AI 만들어야

[데이터넷] AI가 사이버 공격자와 보안조직의 책임회피 수단이 될 수 있다는 지적이 나왔다. 카스퍼스키가 AI로 인해 벌어질 수 있는 후유증, 특히 심리적 위험에 대한 분석 결과를 공개하면서 ‘AI를 통한 고통 거리두기 증후군’에 대해 설명했다.

범죄의 가해자는 피해자가 고통 당하는 것을 보면서 죄책감을 느끼는데, 사이버 범죄자는 피해자를 직접 보지 않기 때문에 죄책감이 덜하다. AI를 범죄에 이용하면 그 비난이 AI로 쏠리기 때문에 범죄자의 죄책감을 훨씬 덜 수 있다.

보안 조직의 경우, 보안 프로세스와 도구가 자동화되면서 사이버 공격 방어 책임을 자동화 도구로 돌릴 수 있다. 완벽하게 독립적인 자동화 도구는 운영자의 주의력을 낮추는 결과로 이어질 수 있다.

카스퍼스키 글로벌 위협 정보 분석팀(GReAT) 아시아태평양 연구 센터 책임자인 비탈리 캄룩(Vitaly Kamluk)은 “범죄자에게 불법적인 이익을 가져다주는 AI가 비난의 대상이 되면서 범죄자들은 죄책감에서 자유로워진다. 보안팀 역시 규정준수·공적인 안전 책임을 AI 보안 시스템으로 돌리면서 책임감을 덜 느낄 수 있다”고 지적했다.

카스퍼스키는 이러한 부작용을 완화하면서 AI를 안전하게 활용할 수 있도록 교육을 해야 한다고 주장했다. AI 오남용 사례를 학교나 사회에서 교육하면서 바른 인식을 심을 수 있게 해야 한다. AI가 자연지능과 어떻게 다르고, 얼마나 신뢰할 수 이는지, AI에 대한 환상이 어떻게 깨질 수 있는지 가르쳐야 한다.

좋은 AI를 사용하기 위해 양질의 데이터를 사용하고, 학습 데이터에 대한 익명의 액세스를 제한하며, AI 오남용 처리 절차를 마련하고 담당자를 두어야 한다. 신뢰할 수 있는 AI 개발에 초점을 맞추며, 필요 시 사용·수출 제한 등의 통제도 필요하다.

비탈리 캄룩 책임자는 “AI가 인간의 문명을 파괴할 것이라는 부정적인 예측도 하고 있지만, AI를 인간에게 도움이 되는 방향으로 사용할 수도 있다”며 “AI에 대한 보안을 지키고, 올바르게 사용할 수 있는 방법을 찾아야 한다”고 말했다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.