점차 강력해지는 AI 성능…인간 수준 추론 능력 갖춰간다
상태바
점차 강력해지는 AI 성능…인간 수준 추론 능력 갖춰간다
  • 데이터넷
  • 승인 2022.10.30 13:06
  • 댓글 0
이 기사를 공유합니다

대용량 데이터 학습한 초거대 AI 모델 잇달아 등장…AI 양극화·환경오염 문제는 숙제

[데이터넷] 대용량 데이터를 학습해 마치 인간처럼 종합적 추론이 가능한 ‘초거대 AI’ 개발 경쟁이 전 세계적으로 뜨겁다. 이들의 발전은 인류에게 편안한 세상과 놀라운 경험을 가져다줄 것으로 예상되지만, 많은 전력 소모에 따른 탄소 배출량 증가와 같은 문제점들도 있는 것이 사실이다. 초거대 AI 기술 발전 현황과 더불어 극복해야 할 과제는 어떤 것들이 있는지 살펴본다.

박상은 알서포트 클라우드기술팀장
박상은 알서포트 클라우드기술팀장

현재 국내외 정보통신기술(ICT) 분야의 화두는 단연 ‘초거대 인공지능(Hyper-scale AI)’이다. ‘초거대 인공지능’은 데이터 분석과 학습을 넘어 인간의 뇌처럼 스스로 추론하고 창작할 수 있도록 방대한 데이터와 파라미터(매개변수)를 활용하는 인공지능(AI) 모델을 말한다. 기존 AI에서 한 단계 진화한 차세대 AI로, 대용량 데이터를 학습해 인간과 같이 종합적 추론이 가능하다. 기존 AI보다 더 인간의 뇌에 가깝게 학습 및 판단 능력이 향상된 형태다.

2020년 이전 AI 모델의 파라미터 수는 100억개 내외였다. 현재 초거대 인공지능(이하 초거대 AI) 모델은 최소 1000억개 이상의 파라미터와 수천억개로 구성된 데이터셋으로 학습한다.

이 초거대 AI 모델은 구글이 개발한 트랜스포머 알고리즘을 활용하고 있다. 병렬적 언어처리를 가능케 해 효율성을 획기적으로 향상시킴으로써 대규모 데이터셋 학습에 용이하기 때문이다. 최근의 초거대 AI 모델은 그 규모가 더욱 거대해져 수천억~1조개 이상의 파라미터를 장착하고 있다.

초거대 AI 모델은 이러한 대규모 파라미터와 데이터셋의 방대한 일반 데이터 학습만으로도 대부분의 작업을 완성도 높게 수행한다. 이렇게 학습된 초거대 AI 모델은 블로그나 뉴스 등의 콘텐츠를 인간을 대신하여 작성하고, 인간과 AI 간의 자유 대화를 가능케 한다.

이 외에도 이력서, 가계부, 이메일 등 원하는 양식의 콘텐츠 생성이 가능하고, 상당한 수준의 번역 작업, 몇 줄의 일반 문장입력을 통한 자동 프로그래밍 작업 등 기존에는 상상할 수 없었던 인간 수준의 추론과 종합적 사고능력을 갖춘 AI 모델로 급속도로 발전했다.

국내외 초거대 AI 개발 현황

1. 인류 역사상 가장 뛰어난 AI ‘GPT-3’
최근 속속 등장하고 있는 글로벌 ICT 기업들의 초거대 AI 모델은 2020년 6월 오픈AI(OpenAI)가 발표한 ‘GPT-3’라는 자연어처리(NLP) 모델로부터 촉발된 것이라 해도 과언이 아니다. GPT-3(Generative Pre-Training 3) 모델은 4990억개 데이터셋 중 가중치 샘플링된 3000억개로 구성된 데이터셋과 1750억개 매개 변수로 딥러닝의 한계까지 사전 학습된 초거대 AI 모델로, 미세 조정 없이 여러 NLP 벤치마크에서 최첨단 성능을 발휘했다.

오픈AI가 발표한 내용에 따르면, 단 몇 개 키워드만 넣으면 작문을 작성해주는 혁신적인 AI 언어생성 모델이자 알고리즘으로 ‘'인류 역사상 가장 뛰어난 인공지능’이라는 찬사를 받는 초거대 AI 모델의 선구자적 지위를 보유하고 있다.

또 인간 수준의 범용적 인공지능(AGI: Artificial General Intelligence)을 최초로 구현해줄 모델로도 주목받고 있다. 물론 GPT-3는 AGI가 아니고 AGI의 도래가 임박한 것도 아니지만, GPT-3의 성능과 발전 가능성을 확인한 만큼 이제는 AGI가 절대 불가능한 콘셉트라고 말할 수는 없게 됐다.

2. 구글 차세대 AI 대화 모델 ‘람다’
“사람들이 날 그저 하찮은 얼음 덩어리가 아니라 하나의 아름다운 행성으로 알아주었으면 해,”

지난 구글 I/O 2021에서 구글 CEO와 함께 자신이 명왕성인 것처럼 대화하는 챗봇 시스템이 등장했다. 바로 ‘람다(LaMDA: Language Model for Dialogue Applications, 대화를 위한 언어모델)’다. 람다는 언어 이해에 중점을 둔 BERT와 언어 생성에 중점을 둔 GPT를 합친 대화를 중점으로 만든 언어모델이다.

대형 언어모델로 챗봇을 만들기는 매우 어렵다. 안전성(Safety)과 팩트 정확성(Factual Accurateness)에 문제가 있기 때문이다. 자칫 잘못 디자인된 챗봇 시스템이 많은 사용자들과 사회에 부정적인 영향을 끼칠 수 있기에 안전성은 무척 민감한 문제다.

또 다양하고 흥미로운 답변을 생성하면서도 팩트에 맞는 답변을 생성하는 것이 어렵고, 마지막으로 일관된 롤플레잉, 즉 페르소나를 갖는 것도 쉽지 않다. 이렇다 보니 람다가 보여준 명왕성에 빙의한 챗봇 데모가 엄청난 파장을 불러일으킨 것이다.

람다는 GPT와 거의 동일하게 거대한 트랜스포머이며 약 1370억개의 파라미터로 구성돼 있다. 인터넷 등을 통해 공개된 약 30억개의 문서, 11억개의 대화를 사전학습 데이터로 사용했다.

다른 언어모델과 람다의 가장 큰 차별점 중 하나는 바로 답변 생성 후 여러 측정방식(Metric)에 대해 <그림 1>과 같이 점수를 예측한다는 점이다. 람다는 생성된 답변 중 안전성이 낮은 답변을 먼저 제거하고, 구체적이고 합리적이면서 흥미로운(SSI: Specific Sensible Interesting) 답변을 고른다. 이런 식의 점수 기반 답변 생성 모델은 그저 많은 양의 데이터에 학습된 크기가 큰 모델에 비해 좋은 성능을 보여줬다. 특히 구체성, 합리성, 안전성에서는 인간 레벨에 근접한 큰 향상을 이뤄냈다.

구글 ‘람다’ 답변 생성 후 메트릭(Metric)에 대한 점수 예측 예시
[그림 1] 구글 ‘람다’ 답변 생성 후 메트릭(Metric)에 대한 점수 예측 예시

3. 딥마인드 초거대 AI 언어모델 ‘고퍼’
‘알파고’로 잘 알려진 딥마인드도 자체 개발한 초거대 AI 언어모델 ‘고퍼(Gopher)’를 공개하면서 초거대 AI 언어모델 개발 경쟁에 합류했다. 고퍼는 2880억개 매개변수로 구성됐다. 오픈AI의 GPT-3(1750억개)보다는 크고, 마이크로소프트의 메가트론 튜링(Megatron-Turing, 5300억개)보다는 작지만 성능은 기존 모델들을 능가한다고 딥마인드 측은 강조한다.

딥마인드는 고퍼와 함께 검색 언어모델 일종인 레트로(RETRO: Retrieval-Enhanced Transformer)를 소개했다. 레트로는 문장 생성 시 2조개가량의 방대한 구문 텍스트로 이뤄진 외부 메모리를 활용하는데, 텍스트를 생성할 때 외부 데이터베이스에서 비슷한 구절을 찾아 비교하는 방식이다.

이를 이용하면 70억개의 매개변수로 이뤄진 레트로 모델이 매개변수가 1750억개인 GPT-3와 동일한 성능을 낼 수 있다. 25배 정도 큰 모델과 같은 결과를 제시할 수 있다는 의미다. 레트로와 같은 검색 언어모델은 초거대 AI 개발 효용을 극대화하고, AI 윤리에도 유용할 것으로 딥마인드 측은 보고 있다.

4. MS·엔비디아 초거대 AI ‘MT-LNG’
마이크로소프트(MS)와 엔디비아가 협력해 기존 GPT-3보다 3배 더 큰 530B 파라미터의 MT-NLG(Megatron-Turing Natural Language Generation Model)를 발표했다. MS에 따르면, MT-NLG는 현재 같은 유형 모델 중 규모와 정확도 모두에서 최고 수준을 보인다. 해당 모델이 높은 정확도를 보이는 5개 분야는 완료 예측, 독해, 상식 추론, 자연어 추론, 단어 의미 중의성 해소다.

MS는 공식 블로그를 통해 “최근 초거대 모델 매개변수 처리는 최고 수준의 GPU 메모리에서도 더 이상 불가능한 수준에 이르렀다”고 전했다. 이와 같은 거대한 AI 모델의 훈련 효율화를 위해서는 엔비디아 셀린(Selene)과 MS 에저(Azure) NDv4와 같은 슈퍼컴퓨팅 클러스터와 메가트론-LM과 딥스피드(DeepSpeed)라는 획기적인 소프트웨어를 접목했다고 부연했다.

MT-LNG의 데이터셋은 총 339B 토큰(Token)으로 구성된 15개의 데이터셋을 사용해 MT-LNG를 학습했고, 데이터셋의 용량은 총 1.5TB에 해당한다. 이러한 대규모 학습을 위해 하드웨어 시스템과 소프트웨어 설계를 접목했다.

5. 중국 인공지능 아카데미 초거대 AI 사전학습 모델 ‘우다오 2.0’
중국 베이징 인공지능 아카데미(BAAI: Beijing Academy of Artificial Intelligence) 연구팀이 발표한 ‘우다오 2.0’은 1조7000억개의 매개변수를 사용한 AI 사전 학습모델이다. 이는 GPT-3의 매개변수 1750억개보다 10배 크고, 구글 스위치 트랜스포머보다 1500억개 더 큰 규모다.

우다오 2.0은 대화 음성을 시뮬레이션하고 시를 쓰며, 그림을 이해하고 레시피를 생성하는 등 사전 훈련된 AI 모델이다. 총 4.9테라바이트(TB)의 텍스트 및 이미지 데이터로 학습되고 있으며, 이 학습 데이터에는 중국어와 영어 텍스트를 각각 1.2TB씩 포함하고 있다. 특히 GPT-3가 할 수 없는 다중 모드로 텍스트와 이미지에서 학습하고 두 가지 유형의 데이터를 모두 포함하는 작업을 처리할 수 있다.

우다오 2.0은 구글의 MoE(Mixture-of-Export training System) 기술의 한계인 병목현상을 해결하고자 파이토치(PyTorch) 프레임까지 지원하는 최초의 MoE 시스템인 패스트MoE(FastMoE)를 개발했는데, 이는 가용성, 유연성, 훈련속도 측면에서 강점을 보인다.

우다오 2.0의 사전학습 프레임워크는 패스트MoE 시스템을 통한 훈련 효율성으로 코딩, 모델, 학습, 미세 조정, 추리 등 다섯 가지의 고효율 특징을 갖고 있으며, 중국어 텍스트 데이터, 멀티모달 데이터, 대화음성 데이터까지 모두를 통합한 거대 데이터 모음집이라 할 수 있다.

6. 화웨이 대규모 NLP 모델 ‘판구 알파’
중국 화웨이가 GPT-3를 넘는 2000억개의 매개변수를 포함하는 750기가바이트(GB)로 대규모 자연어처리 모델인 ‘판구 알파(PanGu Alpha)’를 개발하고 오픈소스로 공개했다. 화웨이 연구팀은 이 초거대 언어모델 설계에서 트랜스포머(Transformer) 기반 자기회귀언어(Autoregressive Language) 모델을 기본 아키텍처로 선택했으며, 다른 쿼리 레이어가 트랜스포머 레이어 위에 추가돼 모델이 최대 2000억개의 매개변수를 확장할 수 있게 했다.

화웨이 연구팀은 중국어로 된 전자책, 백과사전, 뉴스, SNS, 웹페이지 등에서 80TB의 원시 데이터를 수집했다. 대규모 말뭉치 전처리를 위한 분산 클러스터를 구축하고 불쾌한 단어, 스팸, 저품질 데이터 정리 및 필터링, 중복 제거, 품질 평가 및 기타 처리 절차를 통해 약 1.1TB의 고품질 중국 말뭉치 데이터 세트를 구축했다. 또 5차원 병렬 기능을 결합해 모델에 적용했으며, CAN4가 구동하는 2,048개의 어센드 AI 프로세서 클러스터로 훈련했다.

화웨이 연구팀은 매개변수 크기가 증가하는 고품질 중국어 텍스트 말뭉치에 대해 26억, 130억, 2000억의 세 가지 모델을 훈련시켰다. 모델은 언어모델링 작업에서 처음 평가됐으며, 모델 용량과 데이터 및 계산 양이 증가함에 따라 복잡성이 감소한다는 점에 주목했다. 또 대화 생성, 요약 및 질문 답변과 같은 다양한 시나리오에서 모델의 텍스트 생성 능력을 조사했고, 실험 결과는 일반적으로 모델 용량이 증가함에 따라 모델의 성능이 향상된다는 것을 보여줬다.

7. 네이버 초대규모 AI ‘하이퍼클로바’
오픈AI의 GPT-3는 현존하는 가장 뛰어난 초거대 AI 모델이지만 대부분의 학습 데이터가 영어로, 한국어를 위한 모델은 아니다. 이에 네이버는 2021년 5월 ‘우리말을 가장 잘 이해하고 구사하는 최초의 초대형 한국어 인공지능’이라는 슬로건과 함께 초대규모 AI인 ‘하이퍼클로바(HyperCLOVA)’를 공개했다.

하이퍼클로바는 네이버가 국내 기업 최초로 자체 개발한 초대규모 AI로, GPT-3보다 큰 2004억개(204B)의 파라미터 규모를 자랑한다. 파라미터는 인간 뇌의 ‘시냅스’와 유사한 역할을 하는데, 규모가 커질수록 AI의 지능도 높아지는 것으로 알려져 있다.

GPT-3와의 가장 큰 차이점은 바로 ‘한국어 능력’인데, GPT-3보다 한국어 데이터를 6500배 이상 학습했다. 이를 위해 네이버는 560B 토큰(token, 말뭉치)의 한국어 대용량 데이터를 구축했는데, 이는 한국어 위키피디아의 2900배, 뉴스 50년치, 블로그 9년치에 달하는 규모다.

사전 트레이닝된 초거대 AI 사전 학습모델인 하이퍼클로바는 사람처럼 맥락을 이해하고 공감하는 대화를 할 수 있으며, 비지도 학습방법론을 채택해 대규모 학습이 가능하다.

8. 카카오 초거대 AI 모델 ‘KoGPT’
카카오브레인이 GPT-3 모델의 한국어 특화 AI 언어모델 ‘KoGPT’를 최대 오픈소스 커뮤니티 깃허브(gitHub)에 공개했다. 초기 버전이다 보니 KoGPT의 매개변수는 60억개로 네이버 하이퍼클로바 2040억개, GPT-3의 1750억개에 비하면 훨씬 작고, 학습 데이터도 2000억개 토큰으로 네이버 하이퍼클로바 5600억개 토큰 등에 비해 규모가 작다. 카카오브레인은 향후 KoGPT 언어모델의 최대 규모를 100배 이상 더 키울 예정이다.

현재 수준에서 KoGPT가 당장 수행 가능한 언어 과제는 주어진 문장의 긍정과 부정 판단, 긴 문장 한줄 요약, 문장 추론으로 결론 예측, 질문 시 문맥 이해를 통한 답변 등으로 크게 네 가지다. 맥락에 따라 자동으로 글쓰기가 가능한 만큼 상품 소개글 작성, 감정 분석, 기계 독해, 기계 번역 등에 활용할 수 있을 것으로 보이며, 교육에도 활용될 것이라는 주장이다.

카카오가 자사 초거대 AI 모델 특징으로 강조한 것 중 하나는 대중성으로, 카카오가 지목한 KoGPT 사용 대상은 사회적 기업, 소셜 벤처, 스타트업 등이다. 모델을 최초로 공개하는 동시에 오픈소스로 개방한 점도 여기에 있다.

카카오는 초거대 AI에 블록체인 기술 접목을 검토 중이다. 블록체인 위에서 언어모델이 계속 추가되는 데이터를 반영해 학습되고, 모델 사이즈도 지속적으로 커지도록 설계할 방침이다.

9. 카카오 초거대 AI 이미지 생성 모델 ‘민달리’·‘RQ-트랜스포머’
카카오브레인은 ‘KoGPT’에 이어 초거대 AI 멀티모달 ‘민달리(minDALL-E)’를 깃허브에 공개했다. 민달리는 이용자가 텍스트로 명령어를 입력하면 실시간으로 원하는 이미지를 만들어주는 이미지 생성 모델이다. 오픈AI의 ‘DALL-E’를 누구나 접근하기 쉽게 작은 사이즈 모델로 만든 것으로, 1400만장의 텍스트와 이미지 세트를 사전 학습하고 13억개의 파라미터를 가지고 있다.

최근에는 민달리의 업그레이드 버전인 ‘RQ-트랜스포머’도 깃허브에 공개했다. 민달리가 미국의 오픈AI가 공개한 달리(DALL-E)를 재현한 것이었다면, RQ-트랜스포머는 카카오브레인의 독자기술로 개발됐다. RQ-트랜스포머는 민달리에 비해 모델 크기가 3배, 이미지 생성 속도와 학습 데이터셋은 2배 늘어났다. 총 39억개의 파라미터로 구성됐고, 3000만쌍 이상의 텍스트·이미지를 학습했다. 이는 현재 국내에 공개된 이미지 생성 모델 중 최고로 꼽힌다.

규모가 큰 만큼 훨씬 똑똑해진 두뇌를 바탕으로 그림을 더 잘 그릴 수 있는 텍스트 투 이미지(text to image) 모델이다. 고해상도의 이미지를 2차원 코드맵으로 표현했던 기존 모델과 달리 RQ-트랜스포머는 3차원 코드맵으로 표현된 이미지를 순차적으로 예측해 생성하도록 학습했다. 기존 기술 대비 이미지 압축으로 인한 손실이 적어 높은 품질의 이미지를 저해상도의 코드맵으로 표현할 수 있고, 적은 계산 비용으로 높은 이미지 생성 속도를 달성할 수 있다.

RQ-트랜스포머는 처음 보는 텍스트들의 조합을 이해하고 그에 대응하는 이미지를 만들어낸다. 가령 <그림 2>과 같이 ‘사막에 있는 에펠탑을 그려줘’라고 명령어로 입력하면 AI가 맥락을 이해하고 이미지를 도출한다. 검색을 통해 이미지를 찾아내는 것이 아니라 AI가 스스로 명령을 이해하고 직접 이미지를 그리는 방식이다.

‘사막에 있는 에펠탑’이라는 텍스트에 따라 자동 생성한 이미지 예시(출처: 카카오브레인)
[그림 2] ‘사막에 있는 에펠탑’이라는 텍스트에 따라 자동 생성한 이미지 예시(출처: 카카오브레인)

[그림 3]은 카카오브레인의 AI 화가 ‘민달리’의 NFT 작품이다. 사람은 작품을 묘사하는 영어 텍스트(작품명)를 명령하기만 했을 뿐, 명령에 맞는 창작은 100% 민달리가 수행했다

[그림 3] 민달리 NFT 작품 ‘달나라로 가는 검은 호랑이’(왼쪽)와 ‘세계의 왕 검은 호랑이’(출처: 카카오브레인)
[그림 3] 민달리 NFT 작품 ‘달나라로 가는 검은 호랑이’(왼쪽)와 ‘세계의 왕 검은 호랑이’(출처: 카카오브레인)

 

10. LG 초거대 AI ‘엑사원’
2022년 2월 미국 ‘뉴욕 패션위크’ 현장에 등장한 AI 휴먼 ‘틸다(Tilda)’가 화제를 모았다. 틸다는 LG AI 연구원의 초거대 AI ‘엑사원(EXAONE)’으로 구현한 첫 번째 AI 휴먼으로, 국내 의상 디자이너와 손잡고 ‘금성에서 핀 꽃’을 모티브로 디자인한 의상들을 뉴욕 패션위크에서 선보였다.

실제 F/W 컬렉션에서 선보인 200여개 의상은 틸다가 ‘금성에서 핀 꽃’이라는 주제로 창작한 3000장이 넘는 이미지와 패턴을 기반으로 디자이너가 디테일을 더해 의상을 제작하는 방식으로 협업했다. 의상 디자인과 같은 창의성을 요구하는 분야에서 AI와 인간이 협업할 수 있음을 보여준 대표적인 사례다.

틸다를 제작한 엑사원은 약 3000억개의 파라미터를 보유한 초거대 AI로, 세계 최대 규모의 데이터를 학습시켜 인간처럼 사고, 학습, 판단할 수 있다. 엑사원은 세계 최대 수준의 말뭉치 6000억개 이상, 텍스트와 결합된 고해상도 이미지 2억5000만장 이상의 데이터를 학습했으며, 이 외에 전문적인 데이터도 일정 수준 이상 학습한 상태다.

엑사원은 언어와 이미지를 생성하는 멀티모달 기능을 갖췄고, 텍스트와 이미지 양방향 소통이 가능하다. 초기 개발 시점부터 한국어와 영어 데이터를 함께 학습했다. 이러한 강점과 학습 능력을 기반으로 국내에서는 최근 전자, 금융, 교육, 고객지원 등 분야에서 실제 초거대 AI 엑사원을 활용한 방안 및 사례를 제시했다.

LG AI 연구원은 ▲맞춤형 항암 치료제 개발을 위한 신항원 예측 모델 개발 ▲세계 최고 수준의 MRC 기술을 적용한 챗봇 개발 ▲비지도학습 방식의 품질 검사 AI 세계 최초 상용화 등의 성과를 거뒀다. 이를 바탕으로 LG는 엑사원의 활용 영역을 IT, 금융, 교육, 의료, 제조, 통신 분야까지 확장할 계획이다.

초거대 AI의 한계와 과제

초거대 AI는 대용량 데이터를 스스로 학습해 인간처럼 종합적 추론이 가능하도록 학습되고 판단 능력도 향상된 형태의 AI다. 궁극적인 최종 목표로는 AGI를 표방하고 있지만 아직까지는 여러 부분에서 한계를 드러내고 있는 것도 사실이다.

물론 앞으로의 연구개발이나 향후 기술발전을 고려하면 극복하지 못할 부분은 아니지만, 현재의 한계를 인지하고 이를 극복하기 위한 향후 발전가능성을 모색하는 것이 올바른 방향이라 생각된다. 지금까지 공개된 초거대 AI의 공통적인 한계는 어떠한 것이 있는지 몇 가지만 알아보자.

- 학습 비용·시간 대비 효율적일까?
초거대 AI는 대부분 수천억개 이상의 파라미터(매개변수)를 가지고 있으며, 인간이 평생 보는 정보보다 훨씬 많은 방대한 양의 데이터를 학습해야 한다. 사전학습에 필요한 비용이 굉장히 많이 필요하고, 사전학습 시간도 많이 소요된다. 이렇게 거대하게 사전학습된 초거대 AI 모델을 적재적소에 필요한 부분에 활용하기도 그다지 쉽지 않은 것도 현실이다.

- 현실 세계의 쉬운 상식을 모른다?
인류 역사상 가장 뛰어난 인공지능이라 불리우는 GPT-3에게 “치즈를 냉장고 안에 넣으면 녹을까?”라고 질문하자 GPT-3는 놀랍게도 “그렇다”고 답했다. 이와 같이 일반적인 사람이라면 당연히 알 만한 상식이지만, GPT-3는 이러한 물리적 지식을 잘 모른다. 이는 방 안에서 책을 통해 세상을 배운 백면서생처럼 GPT-3가 텍스트로만 세상을 학습했기 때문이다. 매우 방대한 양의 텍스트와 이미지 데이터를 학습을 했지만 인간이 일상생활 속에서 겪는 다양한 경험까지 학습하기에는 무리가 있어 보인다.

- 모든 분야에서 뛰어날까?
초거대 AI는 일부 태스크에서 인간보다 뛰어난 성능을 보일 수 있지만, 아직까지는 대부분 태스크에서 사람보다 떨어진 성능을 보일 뿐만 아니라 주어진 태스크마다 성능도 매우 차이가 난다. 예를 들어, 두 가지 이상의 복합연산 능력이 떨어지고, 태스크를 수행하기 위해 주어진 데이터가 적을수록 성능이 크게 떨어지기도 한다.

- 기억력이 없다?
현재까지 모든 딥러닝 인공지능이 그러하듯이 사전학습된 AI 모델에 특정 입력 값에 대한 출력 값을 내보낼 수는 있지만, 사람처럼 기억력이라 부를 만한 것이 없다. 물론 학습에 사용되는 정보를 입력할 수는 있지만, 사람의 기억과는 다를뿐더러 그 크기도 제한돼 있다. 뿐만 아니라 학습된 정보에서는 매우 뛰어난 성능을 보일 수 있지만 새로운 정보를 수용하기가 어렵고, 새로운 값에 대해 동기화도 잘 이뤄지지 않는다.

이처럼 초거대 AI의 한계에도 불구하고 전자, 교육, 금융, 유통, 의료, 플랫폼, VR 등 매우 다양한 분야에서 무궁무진한 발전 가능성을 갖고 있다. 초거대 AI가 차세대 핵심 기술로 꼽히는 것은 분명한 사실이지만, 양날의 검처럼 간과할 수 없는 어두운 이면도 존재한다.

- AI 양극화
초거대 AI는 자본력이 있는 빅테크 기업이 아니라면 도전하기 쉽지 않다. 진입비용만 1000억원이라는 이야기가 있을 정도로 구축 비용이 비싸고, 운영단가가 매우 높다.

대표적인 국내 빅테크 기업인 네이버의 경우 하이퍼클로바 개발을 위해 700PF 성능의 슈퍼컴퓨터를 구축했다. 140개의 컴퓨팅 노드를 갖고 있고 장착된 그래픽처리장치(GPU) 수만 1120여개에 이른다. 이 정도 비용과 인프라를 중소기업이나 연구기관이 구축하기 어려운 만큼, AI업계에서는 자본력에 따른 기술 격차가 발생할 수 있다고 염려된다. 현재 많은 AI 스타트업 기업은 실질적인 매출도 내지 못하고 있는 상황이고, 여기서 기술 격차까지 발생한다면 생존의 위기까지 발생할 것이다.

양극화 문제를 해결하기 위한 방안이 없는 것은 아니다. 빅테크 기업이 개발한 초거대 AI 모델을 기반으로 파트너십 구축을 확대하고 누구나 서비스를 사용할 수 있도록 API를 정의하고 이를 활용할 수 있도록 한다면, 이를 바탕으로 중소기업이나 연구기관들이 상생할 수 있는 길은 열릴 것이다.

- 전력 소모·환경오염
AI의 또 다른 이름은 ‘전기 먹는 하마’다. 딥러닝 기술 개발 과정에서 발생하는 이산화탄소 배출량이 자동차 5대가 평생 배출하는 양과 같다는 조사 결과가 있을 정도다. AI 기술력 확보는 분명 중요하고, 기술력을 확보해야 미래 경제를 선점할 수 있다. 이를 위해서 초거대 AI 개발은 필수일 수 있다. 그러나 AI가 가져올 편안한 세상을 위해 탄소배출을 무시하고 초거대 AI 모델 개발 경쟁에 무작정 뛰어들 수는 없을 것이다.

다행히 현재 삼성전자, 인텔 등 종합반도체업체와 파운드리는 탄소 배출을 줄일 수 있는 반도체 제작 방법에 대한 고민을 이어가고 있고, GPU 낭비를 방지하는 GPU 가상화 기술도 계속 등장 중이다. 초거대 AI 모델을 개발하는 기업에서는 이러한 기술들을 적극 사용해 탄소 배출이 적은 초거대 AI 모델을 구축해야 한다. 또 그러한 노력을 ESG 보고서 등을 통해 투명하게 공개할 필요도 있다.

지금까지 살펴본 것처럼 현재 공개된 국내외 초거대 AI 모델들은 공통적인 한계와 과제를 갖고 있지만, 현시점에서의 문제일 뿐이다. 지금의 한계는 앞으로의 발전을 위한 확실한 동기부여가 될 것이며, 실제로 한계를 극복하기 위한 노력은 지금도 계속되고 있다. 무엇보다 초거대 AI는 인류에게 편안한 세상과 놀라운 경험을 선사할 것은 분명하다.

그렇다고 초거대 AI 개발에 따른 환경오염 문제와 같은 과제를 간과해서는 안 될 것이다. 초거대 AI가 AGI를 표방하지만, 그 자체가 인간이 될 수는 없다. 그러나 불가능을 가능으로 바꿔 온 역사의 반복으로 미뤄볼 때, 먼 미래에는 특정 분야에만 특화된 AI가 아니라 인간 수준의 추론능력을 가진 범용적 인공지능의 출현이 가능해질 날이 오지 않을까 기대해본다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.