IBM “AI 신뢰성 확보하려면 지속 모니터링해야”
상태바
IBM “AI 신뢰성 확보하려면 지속 모니터링해야”
  • 윤현기 기자
  • 승인 2021.02.23 21:07
  • 댓글 0
이 기사를 공유합니다

설명 가능한 AI 구축 위해 모델 메타데이터·모델 버전 등 지속 공유·검증 필요성 강조
세뜨 도브린 박사가 신뢰할 수 있는 AI 구현 방안에 대해 설명하고 있다.
세뜨 도브린 박사가 신뢰할 수 있는 AI 구현 방안에 대해 설명하고 있다.

[데이터넷] 인공지능(AI)이 기업의 비즈니스 운영 방식을 변화시키고 있다. 사람의 의견에 AI가 예측한 결과를 보충해 더 나은 의사결정을 하고자 하는 수요가 늘어나고 있는 것이다. 그러나 이것이 가능하려면 AI가 예측한 결과를 사람이 믿을 수 있어야 한다.

비즈니스에 적용 가능한 AI는 결과가 나온 이유를 투명하게 설명할 수 있어야 하고, 편견 없이 비즈니스와 윤리를 잘 이해하는 시스템을 통해 만들어질 수 있다. 물론 고품질의 데이터 역시 중요하다.

23일 IBM은 ‘IBM, 신뢰할 수 있는 AI(Trusted AI)를 말하다’를 주제로 화상 미디어 브리핑을 열고 IBM이 ‘신뢰할 수 있는 AI’를 구현하기 위해 어떤 노력을 기울이고 있는지 공유했다.

신뢰 문제는 대상에 대해 투명하게 검증할 수 있는지의 여부에 달려있다. 블랙박스처럼 인간이 AI에 대해 이해하지 못하는 것이 아니라 어떤 과정을 통해 결과가 도출됐는지 설명이 가능해야 한다. 그 과정에 내재된 편견이 있다면 그것까지 감지할 수 있어야 한다.

이를 위해 IBM은 AI를 제대로 관리할 수 있는 거버넌스 역량이 중요하다고 강조했다. AI 모델을 알고 신뢰해야 제대로 사용할 수 있기 때문이다.

모델을 이해하려면 모델의 메타데이터를 확인할 수 있어야 한다. 이를 통해 AI에 사용되는 데이터 추적이 가능하고, 해당 모델 역시 문서화할 수 있기 때문에다. 이는 곧 새로운 모델 버전이 나올 때마다 버전 관리 등을 통해 지속 AI의 과정을 추적할 수 있음을 의미한다.

편견과 공정성 등의 기준도 정하고 준수할 수 있어야 한다. 같은 의미라 하더라도 국가나 지역에 따라 편견 의미가 달라질 수 있기에, 이를 감지할 수 있어야 목적에 맞게 개발하면서도 편견을 없앨 수 있다.

또 이를 지속 발전시키려면 해당 모델을 공유하고 전사적으로 문서화해서 알려줄 수도 있어야 한다. 이를 통해 모델이 어떻게 만들어졌고, 편견이 없도록 계속 검증하고 있다는 사실을 확인시켜줄 수 있기 때문이다.

이처럼 ‘신뢰할 수 있는 AI’ 구현을 위해 IBM은 하이브리드 클라우드 플랫폼 기반의 다양한 오퍼링을 제공하고 있다. ‘왓슨 어시스턴트’는 애플리케이션과 디바이스에 향상된 대화형 인터페이스를 구현하며, ‘왓슨 오픈스케일’은 AI가 내린 의사결정이 도출된 과정을 실시간으로 설명함으로써 AI의 투명성을 높이고, 규정 준수를 강화한다.

여기에 AI 팩트시트는 식품의 영양소 정보를 담은 라벨이나 가전제품의 정보 설명서처럼 제품의 중요한 특성에 대한 정보를 제공하도록 설계됐으며, 이를 표준화하고 공개하는 것은 업계 전반의 AI 서비스에 대한 신뢰 구축에 도움이 된다.

IBM AI 전략 부문 최고 데이터책임자 및 부사장 세뜨 도브린(Seth Dobrin) 박사는 “향후 AI의 미래는 신뢰할 수 있는 AI가 예측하고 자동화하는 모든 과정이 안전한 환경에 구축돼야 한다”며 “이와 함께 사람은 AI가 어떤 데이터를 학습하고 그로 인해 어떤 결과를 내어놓는지 지속 모니터링해야 한다. 필요하다면 수정도 해야 한다”고 강조했다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.