학과소식
[유회준 교수 연구팀, 뉴로모픽 컴퓨팅 기반의 초저전력 거대 언어 모델 인공지능반도체 핵심기술 ‘상보형-트랜스포머’ 개발]
<유회준 교수 사진>
우리 학부 유회준 교수 연구팀이 전력 소모를 최소화하면서도 초고속으로 거대언어모델(LLM)을 처리할 수 있는 인공지능(AI) 반도체 핵심 기술인 ‘상보형 트랜스포머'(Complementary-Transformer)를 세계 최초로 개발했다. 상보형 트랜스포머란 인간 뇌의 구조와 기능을 모방해 설계한 뉴로모픽 컴퓨팅 시스템의 일종인 ‘스파이킹 뉴럴 네트워크'(SNN·뇌의 뉴런이 스파이크라는 시간에 따른 신호를 사용해 정보를 처리하는 방식)와 ‘심층 인공신경망'(DNN·시각적 데이터 처리에 사용되는 딥러닝 모델)을 선택적으로 사용해 트랜스포머 기능을 구현하는 기술이다. 트랜스포머는 문장 속 단어와 같은 데이터 내부의 관계를 추적해 맥락과 의미를 학습하는 신경망으로 챗GPT의 원천 기술이기도 하다.
GPT와 같은 거대언어모델은 그동안 다량의 그래픽처리장치(GPU)와 250와트의 전력 소모를 통해 구동해야 했지만, 연구팀은4.5㎜×4.5㎜의 작은 AI 반도체 한 개에서 400밀리와트의
초저전략만 소모하면서도 초고속 구현에 성공하였다. 기본 뉴로모픽 컴퓨팅 기술은 합성곱신경망(CNN·심층인공신경망의 하나로 이미지 인식·분류와 비디오 분석 등 시각적 데이터 처리에 사용되는 딥러닝 모델)보다 부정확해 간단한 이미지 분류 작업만 할 수 있었으나, 연구진은 뉴로모픽 컴퓨팅 기술의 정확도를 CNN과 동일한 수준으로 끌어올리고 다양한 응용 분야에 적용할 수 있는 ‘상보형 심층신경망’ (C-DNN) 기술을 활용했다고 설명했다.
<스파이킹 뉴럴 네트워크와 심층 인공신경망의 상보적 특성>
사람의 뇌처럼 데이터 입력값이 크면 전력을 많이 쓰고 작으면 전력을 적게 쓰는 SNN의 특징을 활용해 작은 입력값은 SNN에, 큰 입력값은 DNN에 각각 할당하는 방식이다.연구팀은 이러한 상보형 심층신경망 기술을 거대언어모델에 적용함으로써 초저전력·고성능의 온디바이스 AI가 가능하다는 것을 실제로 입증한 것은 물론, 이론에만 머물렀던 연구 내용을 세계 최초로 AI반도체 형태로 구현했다고 과기정통부는 설명했다. 이번에 개발한 AI반도체용 하드웨어 유닛은 ▲ DNN과 SNN을 융합한 신경망 아키텍처로 정확도를 유지하면서도 연산 에너지 소모량을 최적화 ▲ DNN과 SNN을 모두 효율적으로 처리할 수 있는 AI반도체용 통합 코어 구조 개발 ▲ SNN 처리에 소모되는 전력을 줄이는 출력 스파이크 추측 유닛 개발 ▲ LLM 파라미터의 효과적 압축을 위한 기법 사용 등 4가지 특징을 지닌다고 연구진은 밝혔다.
이를 통해 GPT-2 거대모델의 파라미터를 7억800만 개에서 1억9천100만 개로, 번역에 사용되는 T5 모델의 파라미터를 4억200만 개에서 7천600만 개로 각각 줄일 수 있었다. 이러한 압축 작업 결과 언어모델의 파라미터를 외부 메모리로부터 불러오는 작업에 소모되는 전력을 70% 줄이는 데 성공했다. 연구진에 따르면 상보형 트랜스포머는 엔비디아 A100 GPU 대비 625분의 1 수준의 전력을 쓰면서 GPT-2 모델을 활용한 언어 생성에는 0.4초, T5 모델을 활용한 언어 번역에는 0.2초의 고속 동작이 각각 가능하다.파라미터 경량화로 언어 생성의 경우 1.2분기계수(낮을수록 언어모델이 잘 학습됐다는 의미)만큼 정확도가 감소하긴 했으나, 생성된 문장을 사람이 읽을 때 어색함을 느끼지 않을 수준이라고 연구진은 설명했다. 연구팀은 향후 뉴로모픽 컴퓨팅을 언어모델에 국한하지 않고 다양한 응용 분야로 연구 범위를 확장할 예정이다.
유회준 교수는 “뉴로모픽 컴퓨팅은 IBM, 인텔 같은 회사들도 구현하지 못한 기술로, 초저전력의 뉴로모픽 가속기를 갖고 거대모델을 돌린 것은 세계 최초라고 자부한다”며 “온디바이스 AI의 핵심 기술인 만큼 앞으로도 관련 연구를 지속할 것”이라고 말했다.
[과학기술정보통신부 보도자료 링크]
[연합뉴스 링크]
- 이전글
- 다음글