[주목 2021] 설명 가능한 AI, 편향 없는 추론으로 업무 효율 극대화
상태바
[주목 2021] 설명 가능한 AI, 편향 없는 추론으로 업무 효율 극대화
  • 윤현기 기자
  • 승인 2021.01.19 09:10
  • 댓글 0
이 기사를 공유합니다

AI 모델에 투명성 부여해 결과 신뢰성 높여 … AI 활용 사례 확산 기대

[데이터넷] 바둑 인공지능(AI) ‘알파고’로 시작된 AI 열풍은 IT 업계뿐만 아니라 산업 전반에 깊숙이 파고들었다.

AI가 우리 시대를 바꿀 혁신이 되리라는 의견에는 반론의 여지가 없다. 실제로 AI는 제조, 의료, 금융 등 우리 사회 각 분야에서 다양하게 활용되고 있다. 생산 공정에서 불량품을 찾아내고, 엑스레이 촬영 영상 등을 토대로 의료진의 진단을 도우며, 금융 이상거래 등을 확인해 사기 여부를 적발하기도 한다. 

AI는 빅데이터 및 복잡한 알고리즘 등에 기반해  사용자에게 의사결정, 추천, 예측 등의 정보를 제공하지만, 일부 머신러닝 기술은 알고리즘의 복잡성으로 인해 ‘블랙박스’라 불리며 AI가 도출한 최종 결과의 근거나 과정의 타당성 등을 제공하지 못하는 이슈가 존재한다. 

AI 판단 근거 ‘오리무중’
실제로 지난 2013년 미국 플로리다주 브로워드 카운티(Broward County)에서는 약 1만8000여 명의 범죄자를 대상으로 향후 2년간 새로운 범죄를 일으킬 재발 가능성을 범죄자 예측 알고리즘을 통해 분석했다. 그 결과 흑인이 백인보다 범죄 재발 가능성이 45% 더 높은 것으로 나타났다.

그러나 실제 데이터는 달랐다. 해당 기간의 실제 범죄 재발율을 분석한 결과 컴퓨터 알고리즘의 예측과는 달리 백인의 재범 비율이 흑인보다 더 높은 것으로 나타났다. 인간이 지닌 인종차별 편견이 컴퓨터 알고리즘에 영향을 미쳤고 결과적으로 예측 오류로 이어진 것이다.

편향 등으로 인해 AI가 잘못된 판단을 내리는 경우는 쉽게 찾아볼 수 있다. 구글 포토는 흑인의 사진을 보고 ‘고릴라’로 분류하는 문제가 노출됐으며, 아마존에서는 AI 채용 알고리즘이 여성 구직자를 차별하는 것으로 확인돼 폐기되기도 했다. 

AI가 내린 결과를 사용자들이 수용하기 어려운 경우에는 AI의 결정에 대한 회의감과 불신이 생기게 된다. 특히 금융, 보험, 의료 등의 분야에서 고객의 신뢰를 기반으로 개인 정보와 자산 등을 다루는 AI 시스템의 경우 공정성, 신뢰성, 정확성 등을 보장하기 위해 AI가 도출한 결과에 대한 근거와 과정의 타당성 등에 대한 확인이 반드시 필요하다. 

이 같은 블랙박스 문제를 타파하기 위해 나온 개념이 ‘설명 가능한 AI(XAI: eXplainable AI)’다. XAI는 AI 모델에 투명성을 부과해 AI가 결론을 내린 과정을 설명하게 하는 AI 기술이다. 이를 활용하면 AI 결정에 대한 신뢰성 향상은 물론, 편향을 줄일 수 있다. 

AI 설명 모델 개발 주력
XAI는 1970년대 AI 시스템인 전문가 시스템이 도출 결과를 전문가들에게 이해시키지 못하면서 그 중요성이 인식됐고, 몇몇 연구자들에 의해서만 연구가 진행돼왔다. 이후 최근 들어 딥러닝이 전 세계적으로 확산되고 다양한 분야에 도입되면서 다시금 XAI 연구가 주목받고 있다. 

전 세계에서 XAI 기술 개발에 주력하고 있으며, 그중 대표적인 곳이 미 국방성 산하 방위고등연구계획국(DARPA)이다. DARPA는 2021년까지 블랙박스와도 같은 AI의 내부를 사람이 확인할 수 있는 설명 모델과 인터페이스 프로그램 개발을 추진하고 있다. 이를 통해 사람이 AI의 의사결정 과정을 이해하고 그 결과를 믿을 수 있게 됨으로써 효율적으로 업무를 수행할 수 있도록 하는 것이 목표다. 

국내에서도 울산과학기술원(UNIST)이 과학기술정보통신부가 주관하는 인공지능 국가전략프로젝트의 세부과제인 ‘차세대 AI 기술(차세대 학습·추론)’ 연구 주관기관으로 선정돼 XAI 기술 개발에 나서며, 솔트룩스, 티맥스데이터 등 민간 기업에서도 XAI 연구를 진행하고 있다. 

티맥스데이터는 하이퍼브레인이 적용된 토털 데이터 플랫폼 ‘하이퍼데이터(HyperData)’를 선보이고 있다. 데이터 수집, 처리, 가공뿐만 아니라 사용 패턴 분석을 통해 필요한 데이터를 예측하고 분석 시나리오를 추천해준다. 여기에 XAI 기능으로 서비스의 이상 징후 탐지와 장애 원인 분석을 신속히 제공해 데이터 분석에 필요한 시간과 노동력을 대폭 줄여준다. 

에이젠글로벌도 머신러닝 자동화, 모델링 관제, 모델 탑재 API, XAI 등 AI 기반 모델을 통해 각 업무별 니즈에 맞게 활용할 수 있도록 데이터 기반 의사결정 AI 플랫폼 ‘아바커스(ABACUS)’를 공급 중이다. 

또한, 서울대병원은 안과 박기호·가정의학과 박상민 연구팀은 안과 의사가 녹내장을 진단할 때 임상적으로 해석할 수 있는 새로운 XAI를 개발했다. 적대적 설명 방법론을 적용해 설명 가능한 의료영상판독용 인공지능을 개발한 것은 연구팀이 세계 최초다. 

이 외에도 삼성카드는 서울대학교 IDEA Lab과 XAI 도입·활용을 위한 산학협약을 체결하고 XAI 공동 연구와 마케팅 등 삼성카드의 AI 기반 서비스에 XAI 기술을 도입·활용하는데 협력하며, 포스코는 ‘인공지능 용광로’로 불리는 포항제철소 2·3고로에 XAI 기술을 적용해 철강제품의 품질과 생산성 향상에 나서는 등 XAI 기술 수요 역시 빠르게 늘어나고 있다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.