세계 최고 수준의 ‘온 디바이스 AI(On-Device AI) 경량화 알고리즘’이다. 온 디바이스 AI는 서버를 거치지 않고 기기 자체에서 AI 기능을 수행하는 것을 말한다.
2일 삼성전자는 뉴스룸을 통해 종합기술원이 최근 컴퓨터 비전 분야 글로벌 최대 학회인 CVPR(Computer Vision and Pattern Recognition)에서 발표한 ‘온 디바이스 AI 경량화 알고리즘’을 소개했다.
이번 발표는 기존 대비 4배 이상 ‘가볍고’, 8배 이상 ‘빠른’ AI 알고리즘에 대한 것이다. AI 반도체에서 전력 소모와 연산 기능을 획기적으로 향상시킬 ‘열쇠’로 평가받고 있다.
삼성전자 종합기술원은 반도체가 특정 상황을 인식할 때 정확도를 떨어뜨리지 않으면서, 기존 32비트로 표현되는 서버용 딥러닝 데이터를 4비트 이하로 낮출 수 있는 기술을 개발했다.
딥러닝 데이터 크기를 8분의 1로 줄이면, 기기에서 AI 연산을 수행할 때 속도는 반대로 8배 이상 높일 수 있다. 데이터 크기가 줄어들어 소비전력 또한 획기적으로 낮추면서 빠르게 연산을 수행할 수 있다.
특히 하드웨어 면적과 전력 소모를 크게 줄임으로써 이미지 센서, 지문 센서 등 데이터가 얻어지는 곳에서 바로 연산을 수행하고, 그 결과를 필요한 곳으로 원활히 전송할 수 있게 된다.
이번 기술은 AI 시대 핵심기술 중 하나인 온 디바이스 AI 연산을 강화하는 동시에, 삼성전자의 시스템반도체 역량을 끌어올리는데 기여할 전망이다.
보통 AI 기기가 복잡한 연산을 하기 위해 클라우드 서버를 거치는 것과 달리, 온 디바이스 AI는 수백~수천 개의 연산을 기기에서 곧바로 수행토록 하는 기술이다.
또 최근 모바일 기기가 지문이나 홍채, 얼굴과 같은 생체정보 보안의 인증수단으로 활발히 쓰이고 있는 가운데, 서버가 아닌 기기 안에 각종 개인정보를 안전하게 보관할 수 있다는 장점도 있다.
삼성전자는 지난해 자체 NPU를 탑재한 스마트폰용 엑시노스9(9820) 칩을 선보이며, 온 디바이스 AI와 AI 반도체 역량을 강화하고 있다.
이번에 종합기술원이 개발한 온 디바이스 AI 경량화 알고리즘을 엑시노스 시리즈 등 모바일 시스템 온 칩(SoC)뿐만 아니라 메모리, 센서에도 적용하는 등 경쟁력을 높일 계획이다.
삼성전자 종합기술원 최창규 상무는 “궁극적으로 주변의 모든 기기는 물론, 센서가 부착된 사물들이 ‘두뇌’를 갖게 되는 시대가 올 것”이라며 “저전력, 고속 연산의 숙제를 해결하는 차세대 온 디바이스 AI 기술이 이러한 미래를 열어줄 전망”이라고 밝혔다.
이어 “이번 온 디바이스 AI 경량화 알고리즘은 메모리반도체와 프로세서, 센서 등 차세대 반도체 시장을 크게 확대시키는 효과를 가져올 것”이라고 기대감을 내비쳤다.