상세 컨텐츠

본문 제목

삼성전자, 세계 최고수준의 '온 디바이스 AI경량화 알고리즘' 발표

기업

by 문성 2019. 7. 2. 11:38

본문

삼성전자는 신경망처리장치(NPU, Neural Processing Unit) 기술을 육성해, 2030년 시스템반도체 분야에서 글로벌 1위에 오르겠다는 목표를 지난달 밝혔다삼성전자 종합기술원이 최근 컴퓨터 비전 분야의 글로벌 최대 학회인 CVPR(Computer Vision and Pattern Recognition)에서 시스템반도체 2030’ 목표를 뒷받침할 비밀병기를 공개했다고 2일 밝혔다.

 

이번에 발표한 기술은 세계 최고 수준의 온 디바이스 AI(On-Device AI) 경량화 알고리즘이다. 온 디바이스 AI는 서버를 거치지 않고 기기 자체에서 AI 기능을 수행하는 것. 이번 발표는 기존 대비 4배 이상 가볍고’, 8배 이상 빠른’ AI 알고리즘에 대한 것으로, AI 반도체에서 전력 소모와 연산 기능을 획기적으로 향상시킬 열쇠로 평가받고 있다.

 

삼성전자 종합기술원은 반도체가 특정 상황을 인식할 때 정확도를 떨어뜨리지 않으면서, 기존 32비트로 표현되는 서버용 딥러닝[1] 데이터를 4비트 이하로 낮출 수 있는 기술을 개발했다. 딥러닝 데이터 크기를 8분의 1로 줄이면, 기기에서 AI 연산을 수행할 때 속도는 반대로 8배 이상 높일 수 있다.

 

이 알고리즘은 '양자화 구간 학습기술(QIL, Quantization Interval Learning)'을 바탕으로, 전체 데이터 중 의미 있는 데이터의 범위를 '학습'을 거쳐 결정한다. 의미 있는 범위의 데이터만 양자화[2]함으로써, 매우 적은 표현 비트(: 4비트 이하)를 사용하더라도 성능 저하를 최소화시킬 수 있다. 종합기술원은 서버에서 32비트로 연산되는 딥러닝 알고리즘을 4비트 이하로 연산해도, 다른 기술 대비 가장 높은 정확도를 얻을 수 있다는 것을 실험으로 증명했다.

 

또 딥러닝 연산의 데이터 표현 비트를 4비트 이하로 낮추면 곱셈, 덧셈과 같은 산술 연산뿐만 아니라 앤드(AND), 오어(OR)와 같은 논리 연산으로 AI를 고도화할 수 있다. 이에 따라 이번 기술을 활용하면 반도체 트랜지스터[3] 개수를 기존 대비 불과 1/40~1/120만큼만 사용하면서도, 동일한 연산 결과를 얻을 수 있는 것으로 나타났다.

 

이번 기술은 AI 시대 핵심기술 중 하나인 온 디바이스 AI 연산을 강화하는 동시에, 삼성전자의 시스템반도체 역량을 끌어올리는데 기여할 전망이다. 보통 AI 기기가 복잡한 연산을 하기 위해 클라우드 서버를 거치는 것과 달리, 온 디바이스 AI는 수백~수천개의 연산을 기기에서 곧바로 수행토록 하는 기술이다.

 

이러한 온 디바이스 AI 기술은 클라우드 서버를 구축하는 비용을 줄이는 동시에, 자체 연산으로 자율주행, 가상현실(VR) 등 상황에서 빠르고 안정적인 동작을 할 수 있게 해준다. 또 최근 모바일 기기가 지문이나 홍채, 얼굴과 같은 생체정보 보안의 인증수단으로 활발히 쓰이고 있는 가운데, 서버가 아닌 기기 안에 각종 개인정보를 안전하게 보관할 수 있다는 장점도 있다.

 

이러한 온 디바이스 AI 기술의 핵심은 전력을 많이 소모하지 않으면서도, 대용량 데이터를 고속으로 연산하는 것이다. 삼성전자는 지난해 자체 NPU를 탑재한 스마트폰용 엑시노스9(9820) 칩을 선보이며, 온 디바이스 AIAI 반도체 역량을 강화하고 있다. 이번에 종합기술원이 개발한 온 디바이스 AI 경량화 알고리즘을 엑시노스 시리즈 등 모바일 시스템 온 칩(SoC)뿐만 아니라 메모리, 센서에도 적용하는 등 경쟁력을 높일 계획이다.

 

관련글 더보기