인텔·조지아공대, 머신러닝 보안 향상 위한 DARPA 프로그램 참가
상태바
인텔·조지아공대, 머신러닝 보안 향상 위한 DARPA 프로그램 참가
  • 윤현기 기자
  • 승인 2020.04.13 16:01
  • 댓글 0
이 기사를 공유합니다

GARD 프로그램 통해 ML 모델 겨냥한 기만 공격 방어 개선 위해 협력

[데이터넷] 인텔은 조지아공과대학교와 함께 미 국방성 산하 방위고등연구계획국(DARPA)이 진행하는 GARD 프로그램에 공동으로 참가한다고 13일 밝혔다.

GARD(Guaranteeing AI Robustness against Deception) 프로그램은 머신러닝(ML) 모델을 겨냥한 기만 공격에 대한 방어를 개선하기 위해 수백만 달러 상당의 자금을 바탕으로 출범된 4년 기간의 프로그램이다. 인텔은 GARD 프로그램의 주계약업체다.

드물지만 적대적 공격은 데이터에 대한 머신러닝(ML) 알고리즘의 분석을 속이거나 변경하거나 혹은 손상시키려 한다. 인공지능(AI)과 머신러닝(ML) 모델이 반자율적 혹은 자율적인 시스템으로 점점 더 통합되고 있는 만큼, 예상치 못하거나 기만적인 상호작용의 안정성, 안전성 및 보안을 지속적으로 개선하는 것이 중요하다.

예를 들어, 픽셀 단위에서 인공지능의 오분류와 오역은 이미지 전체에 대한 오역 및 잘못된 분류로 이어질 수 있다. 또한, 실제 사물에 대한 미세한 수정으로 인해 인공지능 인식 시스템이 혼동될 수 있다. GARD는 인공지능과 머신러닝 기술이 잠재적 공격으로부터 더욱 대응할 수 있도록 지원할 예정이다.

현재의 방어 체계는 사전 정의된 특정 적대적 공격을 막는 것에 집중돼 있지만, 사전 정의 범주 외 공격에는 취약하다. GARD는 머신러닝 모델이 데이터를 잘못 분류하거나 해석할 수 있는 시나리오를 기반으로 가능한 많은 공격을 다루는 광범위한 방어 체계를 개발함으로써 방어 체계에 접근하고자 한다. 광범위한 아키텍처를 다룬 경험과 선도적인 보안 역량을 바탕으로 인텔은 인공지능과 머신러닝 기술 혁신을 지원할 수 있다.

GARD 프로그램의 목표는 시스템 취약성을 식별하고 속성을 분류해 시스템 건전성을 향상시킬 뿐 아니라 효과적인 방어를 가능하게 하는 이론적 머신러닝 시스템 기반을 확립하는 것이다. GARD는 이러한 프로그램 요소를 통해 그 효과성을 평가할 수 있는 엄격한 기준을 가진 기만 공격에 대비한 머신러닝 기술을 만드는 것을 목표로 하고 있다.

제이슨 마틴(Jason Martin) 인텔 랩스 수석 엔지니어 겸 DARPA GARD 프로그램 인텔 수석 조사관은 “인텔과 조지아공과대학은 인공지능과 머신러닝의 취약성에 대한 생태계 공동의 이해와 완화 능력을 증진시키기 위해 협력하고 있다”며, “일관성 기법에서 혁신적인 연구를 통해 개체 탐지를 강화하고, 인공지능과 머신러닝이 적대적 공격에 대응할 수 있는 능력을 향상시키기 위한 접근방법에 대해 협력하고 있다”고 말했다.

인텔과 조지아공과대학교는 GARD 프로그램 1단계에서 공간적, 시간적, 의미론적 일관성을 기반으로 정지 화상 및 영상 자료를 통한 객체 탐지 기술을 강화하고 있다. 인텔은 인공지능과 머신러닝 혁신을 주도하기 위해 노력하고 있으며, 전 세계 숙련된 보안 연구자들과 협력하는 것이 고객과 산업 모두를 위한 잠재적인 보안 취약점을 해결하는데 있어 중요한 부분이라고 믿고 있다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.