인공 지능 반도체 | [샤박Tube] 인공지능(Ai) 반도체 3분만에 이해하기 52 개의 가장 정확한 답변

당신은 주제를 찾고 있습니까 “인공 지능 반도체 – [샤박tube] 인공지능(AI) 반도체 3분만에 이해하기“? 다음 카테고리의 웹사이트 ppa.maxfit.vn 에서 귀하의 모든 질문에 답변해 드립니다: https://ppa.maxfit.vn/blog/. 바로 아래에서 답을 찾을 수 있습니다. 작성자 우아한 디지털 이(가) 작성한 기사에는 조회수 6,185회 및 좋아요 91개 개의 좋아요가 있습니다.

인공 지능 반도체 주제에 대한 동영상 보기

여기에서 이 주제에 대한 비디오를 시청하십시오. 주의 깊게 살펴보고 읽고 있는 내용에 대한 피드백을 제공하세요!

d여기에서 [샤박tube] 인공지능(AI) 반도체 3분만에 이해하기 – 인공 지능 반도체 주제에 대한 세부정보를 참조하세요

인공지능 반도체 시장이 급성장하고 있다. 인공지능 반도체란 과연 무엇일까? 레시피를 추천해 주는 냉장고, 공기질에 맞춰 작동하는 공기청정기, 기분에 맞는 음악을 틀어주는 스피커 등 사물이 마치 인간과 같은 역할을 할 수 있도록 똑똑하게 만들어 주는 반도체, 인공지능 반도체에 대해 알아본다.

인공 지능 반도체 주제에 대한 자세한 내용은 여기를 참조하세요.

AI – 반도체 기술 및 응용 | 삼성반도체

인공지능은 머신 러닝과 딥러닝 등을 통해 우리 삶을 변화시킵니다. 삼성전자 반도체 솔루션이 AI를 어떻게 혁신하고 있는지 확인하세요.

+ 여기를 클릭

Source: semiconductor.samsung.com

Date Published: 7/26/2022

View: 9330

[테크 스토리] 왜 ‘AI 반도체’가 반도체의 미래라고 불릴까?

학습 데이터를 단시간에 받아들이고 처리하기 위해서는 특별한 프로세서가 필요한데, 이 프로세서가 ‘AI 반도체’다. AI 반도체는 AI 서비스 구현에 필요한 …

+ 여기에 더 보기

Source: news.sktelecom.com

Date Published: 2/5/2021

View: 2639

AI 기술의 다양한 응용 분야_AI 반도체의 현황과 미래전망

AI는 일상의 다양한 부분을 학습하며 자율주행(Automotive), AI 비서부터 인간의 뇌를 본뜬 뉴로모픽(Neuromorphic) 반도체까지 전 영역에서 빠르게 …

+ 여기에 더 보기

Source: news.skhynix.co.kr

Date Published: 6/20/2022

View: 7173

[보고서]인공지능 구현을 위한 AI 반도체 기술의 개발 동향

AI 반도체는 학습?추론 등 AI 연산을 실행하는 데 최적화된 시스템반도체로서, 직렬처리 방식에 특화된 기존 반도체(CPU)의 한계를 극복하여 고성능 …

+ 여기에 자세히 보기

Source: scienceon.kisti.re.kr

Date Published: 1/15/2021

View: 2487

새 시대를 여는 기술의 결정체, 인공지능 반도체 – 테크월드뉴스

가트너와 정보통신정책연구원(KISDI)의 분석에 따르면, 전 세계 AI 반도체 시장은 향후 10년간 6배 성장해 2030년 총 1179억 달러 규모의 가치를 창출할 …

+ 여기에 표시

Source: www.epnc.co.kr

Date Published: 10/12/2022

View: 3966

[AI 반도체 대책] 신경망 반도체 개발에 1조 투입… 韓 테스트베드 …

… 는 3% GPU→NPU→뉴로모픽 진화 AI반도체로 2세대 선점 AI 반도체, 공공 인프라 적용… 민간 IDC 확산 유도 정부가 인공지능AI 반도체 시장 선점과.

+ 여기에 자세히 보기

Source: biz.chosun.com

Date Published: 1/13/2021

View: 5412

AI 반도체 동향 및 시사점 – KDB미래전략연구소

여러 빅테크 및 스타트업 업체들이 개발중인 AI 반도체는 통신기기 및 컴퓨터 분야. 에서 가장 많이 활용되고 있으며, 첨단공정의 반도체 개발비용이 …

+ 여기에 보기

Source: rd.kdb.co.kr

Date Published: 10/10/2022

View: 4926

엔비디아 능가한다는 국내 AI반도체 스타트업들현실은 긱스

AI 반도체는 AI 연산에 최적화된 시스템 반도체 제품군을 통칭한다. AI가 필요한 서비스의 대규모 연산을 빠른 속도에 작은 전력 소모로 해낸다. 일종의 …

+ 여기에 표시

Source: www.hankyung.com

Date Published: 4/10/2022

View: 4417

AI 반도체 – 연구개발특구진흥재단

⃝ (2세대 AI 반도체) 인간의 뇌를 모방한 非폰노이만 방식의 뉴로모픽. 반도체가 현재까지는 가장 진보된 형태의 AI 반도체로 평가. – 인공신경망 연산 성능과 소비 …

+ 자세한 내용은 여기를 클릭하십시오

Source: www.innopolis.or.kr

Date Published: 12/20/2022

View: 7209

주제와 관련된 이미지 인공 지능 반도체

주제와 관련된 더 많은 사진을 참조하십시오 [샤박tube] 인공지능(AI) 반도체 3분만에 이해하기. 댓글에서 더 많은 관련 이미지를 보거나 필요한 경우 더 많은 관련 기사를 볼 수 있습니다.

[샤박tube] 인공지능(AI) 반도체 3분만에 이해하기
[샤박tube] 인공지능(AI) 반도체 3분만에 이해하기

주제에 대한 기사 평가 인공 지능 반도체

  • Author: 우아한 디지털
  • Views: 조회수 6,185회
  • Likes: 좋아요 91개
  • Date Published: 2020. 3. 12.
  • Video Url link: https://www.youtube.com/watch?v=adtbRxg-ZOI

AI – 반도체 기술 및 응용

인공지능, 반도체로부터

삼성은 폭넓은 첨단 반도체 제품과 기술을 통해, 다양한 응용처에서 더욱 진화된 인공지능을 만날 수 있도록 그 기반을 마련하고 있습니다. 엑시노스 프로세서는 더욱 강력하고 효율적인 온 디바이스 AI를 위해 첨단 신경망처리장치 (NPU)를 탑재하고, LPDDR5 등 메모리 솔루션은 AI 시스템 구현에 필요한 고성능 프로세싱에 최적화 됐습니다. HBM2E (high bandwidth memory) 솔루션은 차세대 인공지능 구현에 필요한 성능, 용량 및 효율성을 제공하고, Z-SSD 등 스토리지 장치는 인공지능과 HPC의 워크로드를 쉽게 관리하도록 설계되었습니다. 또한 삼성의 AutoSSD 와 같은 오토모티브향 메모리 솔루션은 운전자와 차량 간의 소통을 빠르고 효율적으로 실현해 스마트카 구현에 필수적이며, 엑시노스 오토 프로세서는 NPU를 통해 오토모티브에 인공지능 능력을 제공합니다.

[테크 스토리] 왜 ‘AI 반도체’가 반도체의 미래라고 불릴까? – SK텔레콤 뉴스룸

※ ‘어렵게 느껴지는 기술! 쉽게 이해할 수 없을까? <테크 스토리>는 기술에 관한 궁금증을 꼬리에 꼬리를 무는 질문을 따라가며 풀어보는 기획 시리즈입니다. 기술과 친해져 보세요.

알파고와 이세돌 9단의 세기의 바둑 대결 이후, 6년이 흐른 지금. 먼 미래로 느껴졌던 인공지능(AI)은 우리 일상에 깊게 들어왔다. 가전, 스마트 기기, 인터넷, 의료, 자율주행 등 산업과 생활 전반에 AI가 쓰이지 않는 데가 없다.

AI 기술이 확대되면서 함께 변화하는 영역으로 대표되는 것이 ‘반도체’ 이 중에서도 ‘AI 반도체’다. 기존 반도체 분야의 강자들뿐만 아니라 글로벌 빅테크 기업들까지 앞다퉈 천문학적인 투자와 인수합병을 통해 AI 반도체 개발에 열을 올리고 있다. 미래 반도체 산업의 중추로 전망되는 ‘AI 반도체’에 대한 궁금증을 질문과 답변을 통해 풀어본다.

반도체면 반도체지… AI 반도체는 무엇일까?

AI는 수많은 데이터를 학습하고 이를 통해 추론한 결과를 도출 한다. 학습 데이터를 단시간에 받아들이고 처리하기 위해서는 특별한 프로세서가 필요한데, 이 프로세서가 ‘AI 반도체’다. AI 반도체는 AI 서비스 구현에 필요한 대규모 연산을 초고속, 초전력으로 실행하는 효율성 측면에서 특화된 비메모리 반도체로, AI의 핵심 두뇌에 해당한다.

AI 반도체가 개발되기 전에는 이 핵심 두뇌 역할을 CPU(중앙처리장치)와 GPU(그래픽처리장치)가 담당했다. 다만, 이 둘은 AI를 처리할 수 있는 성능은 갖췄지만 애초에 AI용으로 개발된 것이 아니다 보니 AI연산 외의 부분에 성능이 낭비되고, 비용이나 전력 소모 등 비효율적인 부분이 발생했다. 인간의 뇌처럼 수많은 데이터를 처리하려면 높은 전력과 빠른 속도가 필수적이다. CPU, GPU 대비 범용성은 낮지만, AI 알고리즘에 최적화된 AI 전용 반도체가 등장하게 된 배경이다. AI의 딥러닝에 특화되었다는 의미에서 흔히 NPU, Neural Processing Unit(신경망 처리장치)라고 부르기도 한다.

AI 반도체는 어떻게 CPU · GPU보다 높은 성능을 낼까?

CPU는 컴퓨터의 입력, 출력, 명령어 처리 등을 모두 다루는 컴퓨터의 두뇌다. 데이터를 순차적으로 직렬 처리하는 CPU는 대규모 병렬 처리 연산을 필요로 하는 AI에 최적화되어 있지 않다. 이 한계를 극복하기 위해 GPU가 대안으로 등장했다. GPU는 3D 게임 같은 고사양의 그래픽 처리를 위해 개발됐으나 데이터를 병렬 처리한다는 특징이 있어 AI 반도체 중 하나로 자리 잡았다.

GPU가 본래 AI 연산을 위해 만들어진 반도체가 아니기 때문에, GPU의 병렬 처리 특성은 유지하면서 AI만을 위한 전용 반도체가 등장하게 되었는데 FPGA나 ASIC* 형태의 NPU가 이에 해당한다. GPU가 병렬 연산에 최적화되어 있어서, AI의 대규모 학습 데이터 처리에 유용하지만, 이를 토대로 추론의 결과를 뽑아내는 데에는 AI 알고리즘을 고려한 최적화가 필요하다. 또한, 학습 및 추론 과정에서의 중간 데이터들을 저장하는 메모리와의 연결 구조도 성능과 에너지 소모에 큰 영향을 미치는데, AI 반도체 NPU는 이를 모두 고려했기에, 고성능과 에너지 고효율이 가능한 것이다. 스마트폰으로 촬영할 때, 인물 주변은 흐리게 날리기 위해서 인물을 인식하는 것은 NPU 역할, 사진에 뽀샤시한 필터를 적용하는 것은 GPU 역할이라고 생각하면 된다.

FPGA(Field Programmable Gate Array)는 칩 내부의 하드웨어를 목적에 따라 재프로그래밍이 가능해 유연성이 높은 것이 특징이고, ASIC(Application Specific Integrated Circuit)은 특정 목적에 맞춰 제작된 주문형 반도체로 고효율이 특징이다. ASIC 형태로는 주로 글로벌 IT 기업에서 개발하고 있다. 뉴로모픽(Neuromorphic) 반도체는 사람의 뇌에 존재하는 신경세포와(뉴런)와 연결고리(시냅스) 구조를 모방했다. 성능과 효율성은 앞선 반도체보다 뛰어나지만 범용성이 낮고 아직은 개발 중인 차세대 AI 반도체다.

* Application Specific Integrated Circuit, 애플리케이션 특성에 맞는 시스템을 구현하기 위해 제작된 주문형 반도체

AI 반도체는 누가 만드는가? AI 반도체 시장은 얼마나 될까?

AI가 미래 IT 산업의 판도를 바꿀 핵심 기술로 부상하면서 AI 반도체 시장은 뜨겁다. AI 반도체 시장을 선점하기 위해 전통적인 반도체 기업인 퀼컴, 인텔, 엔비디아는 물론, SKT, 구글, 아마존, 애플, 테슬라 등 글로벌 빅테크 기업들도 AI 반도체 개발에 뛰어들고 있다. AI 서비스 컴퍼니로의 전환을 선언한 SK텔레콤도 2020년에 첫 국산 AI 반도체 ‘사피온 X220’을 상용화하며 AI 반도체 산업을 이끌고 있다.

일부 빅테크 기업들은 각 기업의 서비스에 맞는 AI 반도체를 직접 만드는 게 더 낫다는 판단에 자체 AI반도체 개발도 고려하고 있다. 예를 들어, 테슬라가 자율주행에 특화된 자체 AI 반도체를 만드는 것이 이에 해당한다.

시장조사업체 가트너는 AI 반도체 시장이 2023년에 343억 달러(약 40조) 규모로 성장할 것으로 전망했으며, 2030년에는 전체 시스템 반도체 시장의 31.3%를 점유할 것으로 내다봤다.

AI에 사용하는 반도체 중 범용성이 높은 CPU, GPU 시장은 기술 성숙 단계에 접어들었고, 최적화된 저전력, 고효율의 ASIC 중심으로 시장이 성장 중이다. 향후 AI 반도체는 데이터 센터(Data Center) 등 고성능 서버에 활용 가능한 반도체에서 자동차, 스마트폰 등에 탑재되는 디바이스용으로, 학습용에서 추론용으로 시장 비중이 확대될 것으로 전망된다. 초기에는 머신러닝 학습 목적의 ‘학습용’ 수요가 높지만, 장기적으로는 학습 데이터를 기반으로 AI 서비스를 구현하는 ‘추론용’ 수요 증가가 예상된다.

SKT가 직접 AI 반도체 개발에 나선 이유는?

SKT는 ’20년 11월 국내 최초로 AI 반도체 ‘사피온(SAPEON) X220’을 공개했다. AI 서비스는 SKT의 5대 사업군 중 하나로, 많은 SKT 서비스에 딥러닝, 비전 AI(Vision AI), 음성/대화 AI 등의 기술이 활용되고 있다. SKT는 시장 성장세와 함께 5G MEC, 머신러닝 서버 등 내부 수요가 급증하는 상황이라는 판단 하에 미래 반도체 시장에 출사표를 던졌다.

‘SAPEON’은 인류를 뜻하는 ‘SAPiens(사피엔스)’와 영겁의 시간을 뜻하는 ‘aEON(이온)’의 합성어로, 인류에게 AI 반도체 기반 인공지능 혁신의 혜택을 지속 제공하겠다는 의지를 담았다. ‘SAPEON’은 GPU 대비 딥러닝 연산 속도가 1.5배 빠르고, 전력 사용량은 80% 수준이며, 가격은 GPU의 절반에 불과하다. SKT는 올해 열린 CES2022와 MWC22 자사 전시관에서 사피온을 전 세계에 선보였다. 내년에는 추론에 최적화 되어있는 X220에 실시간 학습 기능까지 더한 후속 모델 X330을 출시할 예정이다.

SKT는 또 AI 반도체 칩 기반 하드웨어부터 AI 알고리즘, API(응용 프로그램 인터페이스) 등 소프트웨어까지 AI 서비스 제공에 필요한 통합 솔루션을 제공하는 ‘AIaaS(AI as a Service, 서비스형 AI)’ 전략을 통해 글로벌 시장 공략에 나설 계획이다.

SKT의 글로벌 공략법은?

SKT는 올해 글로벌 AI 반도체 시장 진출을 위해 SK스퀘어, SK하이닉스와 함께 ‘SK ICT 연합’을 구성하고, AI 반도체 사업을 담당할 미국법인 ‘사피온(SAPEON) Inc.’를 설립했다. 또한, 한국과 아시아를 거점으로 하는 사피온 코리아도 한국에 설립했다. SK텔레콤에서 AI액셀러레이터담당을 지낸 류수정 대표가 두 회사의 대표를 겸직한다.

SAPEON Inc.는 미국에 거점을 둔 글로벌 빅테크 기업을 주요 고객사로 삼아 사피온의 글로벌 시장 진출과 AI 반도체 사업 확장을 도모하는 전초기지 역할을 할 계획이다.

AI 기술의 다양한 응용 분야_AI 반도체의 현황과 미래전망

‘역사상 가장 거대한 패러다임의 전환’이라 불리는 인공지능(AI)은 눈부신 속도로 일상의 중심으로 다가오고 있다. AI는 이미 인간의 지능과 학습 속도를 추월했고, 일상의 다양한 부분을 학습하며 자율주행(Automotive), AI 비서부터 인간의 뇌를 본뜬 뉴로모픽(Neuromorphic) 반도체1)까지 전 영역에서 빠르게 적용되고 있다. 이러한 AI 기술이 활약하고 있는 대표적인 응용 분야는 무엇이고 어떻게 구현되는 것일까?

1) 뉴로모픽(Neuromorphic) 반도체: 사람 뇌의 신경구조를 모방한 반도체 소자로서, 뉴로는 신경, 모픽은 형상을 의미한다. 병렬로 작용하는 인간의 뇌를 모방해 병렬 형태의 연산구조를 지니고 있다.

Cloud Computing vs Edge Computing

기존 클라우드 서비스(Cloud Service)와 대척점에 있는 AI 응용 분야는 엣지 컴퓨팅(Edge Computing)2)이다. 영상이나 사진과 같은 대량의 입력 데이터를 처리해야 하는 응용 분야에서는 엣지 컴퓨팅을 통해 데이터를 자체적으로 처리하거나, 데이터의 양을 줄여 유무선 통신을 통해 클라우드 서비스로 전달하는 방식을 취해야 한다.

엣지 컴퓨팅을 위한 가속기는 AI 칩 설계의 또 다른 큰 분야를 차지하고 있다. 주로 자율주행 등에 사용되는 AI 칩이 좋은 예다. 이러한 칩에서는 합성곱 신경망3)(Convolution Neural Net, CNN)을 통해 대량의 정보를 지닌 이미지를 압축하고, 여러 처리 과정을 거쳐 영상 분류(Image Classification)4), 객체 탐지(Object Detection)5) 등의 작업을 수행하게 된다. 이렇게 입력 데이터가 필터를 거치며 크기가 줄어들면 확실한 특징만 남게 되는데, 이를 통해 최적의 인식 결과를 얻을 수 있다.

2) 엣지 컴퓨팅(Edge Computing): 생성된 데이터를 중앙의 대규모 서버로 전송하지 않고 데이터가 생성된 기기 자체에서 처리하거나 데이터가 발생한 곳과 가까운 소규모 서버로 전송해 처리하는 컴퓨팅 방식을 말한다.

3) 합성곱 신경망(Convolution Neural Net): 행렬로 표현된 필터 각 요소가 데이터 처리에 적합하게 자동으로 학습되도록 하는 기법을 말한다.

4) 영상 분류(Image Classification): 이미지나 영상 속 대상이 어떤 범주에 속하는지 구분하는 작업을 말한다.

5) 객체 탐지(Object Detection): 이미지나 동영상에서 의미 있는 객체(object)의 위치를 정확하게 찾아내는 작업을 말한다.

AI와 개인정보보호

▲Amazon Alexa(왼쪽)와 SK텔레콤 NUGU(오른쪽)

아마존(Amazon)의 ‘알렉사(Alexa)’, SK텔레콤의 ‘NUGU’ 등 대화형 서비스 역시 AI 응용 분야 중 하나로 꼽힌다. 하지만 마이크 입력을 통해 집안의 대화가 끊임없이 노출되는 방식을 사용하는 지금의 대화형 서비스는 단순한 오락용 서비스 이상으로 발전되기 힘들다. 더 다양한 응용 분야에서 활용하기 위해서는 먼저 개인정보보호 문제를 해결해야 하며, 서비스 제공 기업들 역시 이를 인지하고 문제 해결을 위해 노력을 경주하고 있다.

개인정보보호 문제 해결 방안으로 최근 주목받고 있는 기술은 ‘동형 암호화(Homomorphic Encryption)’다. 동형 암호화는 사용자의 음성 또는 의료 데이터와 같은 민감 정보들을 있는 그대로 전송하지 않고, 사용자만이 풀 수 있는 암호문(Ciphertext)으로 변환해 전송하는 기술이다. 데이터를 처리할 때도 암호화된 상태로 곱셈, 덧셈 등 필요한 연산이 이뤄지며, 그 결과를 다시 사용자에게 암호화된 상태로 보내면 사용자가 이를 해독(Decrypt)해 결과를 확인한다. 따라서 사용자 이외에는 아무도 암호화 이전의 데이터를 알 수 없다.

이 같은 기술을 구현하려면 일반적인 데이터를 처리하는 심층 신경망(Deep Neural Network, DNN) 서비스에 비해 적게는 수천 배, 많게는 수만 배에 달하는 계산량이 필요하다. 이에 따라 특별히 설계한 동형 가속기(Homomorphic Accelerator)로 연산 성능을 획기적으로 높여 서비스 시간을 줄이는 것이 앞으로의 주요한 연구 과제가 될 것이다.

AI 칩과 메모리 반도체

대규모 DNN에서는 가중치(Weight)6)의 수가 늘어 프로세서 내부에 모든 가중치를 담을 수 없다. 이에 외부의 대용량 DRAM에 저장된 가중치를 필요할 때마다 읽어와 프로세서로 가져와야 한다.

이때 가져온 가중치를 한 번만 쓰고 다시 쓰지 못하면, 에너지와 시간을 소모하며 애써 가지고 온 정보가 재활용되지 못하고 버려지게 된다. 모든 가중치가 프로세서 안에 저장돼 활용되는 경우와 비교할 때, 많은 시간과 에너지가 추가로 소모돼 극히 비효율적이다.

따라서 대규모 DNN에서 막대한 수의 가중치를 활용해 많은 양의 데이터를 처리해야 하는 경우에는 병렬 처리와 함께/혹은 한 번에 같은 가중치를 여러 번 사용하는 배치(Batch)7) 방식을 활용해야 한다. 즉, DRAM이 장착된 프로세서를 여러 개 병렬로 구성하고 이를 서로 연결한 뒤, 가중치나 중간 데이터를 여러 개의 DRAM에 분산 저장하고 재사용하는 방식으로 연산을 수행해야 한다는 의미다. 이런 구조에서는 프로세서 간 고속 연결이 필수적이다. 이런 방식은 모든 프로세서가 하나의 통로를 통해 연결되는 방식에 비해 더 효율적이며, 최대의 성능을 끌어낼 수 있다.

6) 가중치(Weight): 평균치를 산출할 때 각 개별값에 부여되는 중요도를 말한다.

7) 배치(Batch): 처리해야 할 데이터를 일정 기간 모았다가 한 번에 처리하는 데이터 처리 방식을 말한다.

AI 칩의 연결구조

프로세서들을 상호 접속(Interconnection)8) 형태로 대량으로 연결할 때 문제가 되는 것은 대역폭(Bandwidth)과 지연시간(Latency)이다. N개의 가속기(Accelerator)를 병렬로 연결해 N배의 성능을 내고 싶어도, 상호 접속된 연결부의 대역폭에는 한계가 있어 지연시간이 발생하고, 이로 인해 기대한 만큼의 성능을 얻지 못하기 때문이다. 이에 DNN의 크기와 성능은 대역폭과 지연시간을 바탕으로 결정된다.

이러한 성능의 확장성(Scalability)을 효율적으로 제공하기 위해서는 각 프로세서 사이의 연결 구조가 중요하다.

▲NVIDIA’s GPU Accelerator A100

NVIDIA A100 GPU에서는 ‘NVLink 3.0’이 그 역할을 담당하고 있다. 이 GPU칩에는 12개의 NVLink 채널이 있고 각각 50GBps9)의 대역폭을 제공한다. 4개의 GPU를 서로 연결하는 경우 각 GPU당 4개 채널을 사용해 직접 연결할 수 있지만, 16개를 연결하는 경우에는 외부에 상호 연결을 전담하는 NVSwitch를 사용해야 한다.

Google TPU v2는 496GBps의 총 대역폭(Aggregate Bandwidth)10)을 가진 ICI(Inter-Core Interconnect)11)를 활용해, 2D Torus12) 구조로 서로 연결할 수 있도록 설계돼 있다.

이렇듯 각 프로세서를 연결하는 방법은 전체 시스템에 큰 영향을 미친다. 예를 들어 메시(Mesh)13) 나 Torus 구조로 연결하게 되면 각 칩 간의 물리적 연결이 단순해 구성이 쉽지만, 멀리 연결된 노드(Node)14)를 여러 프로세서를 거쳐 연결해야 해 그 거리만큼 지연시간이 증가한다.

가장 극단적인 해결책은 모든 프로세서를 1:1로 연결하는 클리크(Clique) 구조를 채택하는 것이다. 하지만 칩의 핀(Pin)15) 수가 프로세서 개수만큼 급격하게 증가하고 인쇄회로기판(Printed Circuit Board, PCB) 상의 정체(Congestion)가 허용할 수 없는 범위를 넘어, 실제 설계에서는 최대 4개의 프로세서밖에 연결할 수 없다.

이로 인해 일반적으로는 NVSwitch와 같은 크로스바 스위치(Crossbar Switch)16)를 이용하는 매력적인 방법이 활용된다. 하지만 이 역시 스위치에 모든 연결이 수렴돼, 연결하려는 프로세서가 많으면 스위치에 신호선이 몰려 PCB 상의 레이아웃을 잡기가 어려워진다.

가장 좋은 방법은 전체 네트워크를 2진 트리(Binary Tree)17)로 구성하는 방법이다. 이 경우 최말단에 프로세서를 연결하고 최상단에 가장 많은 대역폭을 할당해야 하므로, 팻 트리(Fat Tree)18) 형태로 구성하는 것이 확장성과 함께 최고의 성능을 발휘하기에 가장 이상적이다.

8) 상호 접속(Interconnection): 병렬 처리를 위한 컴퓨터 구조에서 복수 개의 프로세서와 기억 장치 모듈 간에 데이터 및 제어 신호를 전달하기 위한 연결 구조를 말한다.

9) GBps: 초당 얼마나 많은 데이터를 전송할 수 있는지를 나타내는 단위. 1GBps는 1초에 대략 10억 bit의 데이터를 전송할 수 있음을 의미한다.

10) 총 대역폭(Aggregate Bandwidth): 여러 개의 통신 채널이 병렬로 연결될 때 개별 채널들의 대역폭을 다 합한 것을 가리킨다.

11) ICI(Inter-Core Interconnect): 코어 간 연결선을 가리킨다.

12) 2D Torus: 행과 열의 노드들은 기본적으로 그물망 구조로 연결되며 같은 행과 열의 노드들은 별도의 링으로 한 번 더 접속한다.

13) 메시(Mesh): 노드들을 2차원 배열로 연결하여 각 노드가 4개의 주변 노드들과 직접 연결되는 그물망 구조를 말한다.

14) 노드(Node): 네트워크상 연결점 또는 종점을 뜻한다.

15) 핀(Pin): 부품과 부품을 고정하는 기계요소를 말한다.

16) 크로스바 스위치(Crossbar Switch): 세로 및 가로로 교차하는 여러 개의 신호선의 교차점에서 접점을 여닫으며 접속 여부를 결정하도록 하는 스위치를 말한다.

17) 2진 트리(Binary Tree): 하나의 노드에 두 개의 노드가 연결되고 연결된 노드에 계속 두 개씩 노드가 연결되며 아래로 확장되는 크리스마스트리 형태의 연결 구조를 말한다.

18) 팻 트리(Fat Tree): 모든 층위가 연결된 노드 수에 상관없이 동일한 대역폭을 가진 형태의 2진 트리 구조. 이러한 조건을 만족하려면 노드 수가 적은 최상단의 연결부에 할당된 대역폭을 최하단으로 내려갈수록 노드 수만큼 나눠 배분해야 한다.

뉴로모픽 방식의 AI 칩

DNN을 가속하는 클라우드 서버용 프로세서는 모든 데이터의 표현과 처리 방식이 디지털로 이뤄져 있으며, 연산은 하드웨어의 바탕 위에서 소프트웨어로 시뮬레이션하는 방식으로 진행된다. 최근에는 이러한 시뮬레이션 방식과 달리 생명체의 신경망 회로와 그 신호를 그대로 아날로그 전자 회로로 직접 가져와 동일하게 처리하는 뉴로모픽 AI 칩도 활발히 연구되고 있다.

뉴로모픽 방식을 활용하는 실제 응용 분야에서는 원래의 데이터 표현이 아날로그 방식을 따르므로 한 개의 신호는 한 개의 노드에 표현된다. 또한 연결 상태는 소프트웨어로 결정되지 않고 하드웨어로 연결되어 있으며, 가중치는 아날로그 형태의 고정된 상태로 저장되게 된다. 이러한 구조는 매우 적은 에너지로 한 번에 많은 정보를 처리할 수 있다는 장점이 있다.

뉴로모픽 AI 칩은 구조가 고정돼 있어 ‘프로그램화할 수 있는 가능성(Programmability)’은 낮지만, 규모가 작은 특정 엣지 응용 분야에서는 장점이 크다. 실제로 뉴로모픽 프로세서는 높은 에너지 효율을 발휘해, 사물인터넷(Internet of Things, IoT)에서 사용하는 센서의 AI 신호 처리나 대량의 영상 입력 데이터를 고정된 가중치의 CNN으로 처리해야 하는 영상 분류와 같은 응용 분야에 유용하다.

하지만 가중치가 고정돼 있어 지속적인 학습이 필요한 응용 분야에는 사용되기 어려울 것으로 예상된다. 또한 구조의 한계로 여러 개의 칩을 동시에 연결하는 병행성(Parallelism)19)을 활용하기도 어렵다. 이에 따라 실제 응용 분야는 엣지 컴퓨팅 분야에 한정될 것으로 전망된다.

뉴로모픽 구조를 IBM의 ‘트루노스(TrueNorth)’와 같이 아날로그 형태가 아닌 디지털 형태로 구현하는 것도 가능하다. 하지만 확장성이 좋지 않은 것으로 알려져 있어 유용한 응용 사례를 찾기는 어렵다.

19) 병행성(Parallelism): 컴퓨터 시스템의 여러 부분이 동시에 작동하거나 여러 컴퓨터 시스템이 동시에 작동하는 것을 의미한다.

AI 칩 기술의 현주소

사용자가 생성하는 막대한 데이터를 처리하는 메타(Meta, 구 페이스북)에서는 인간과 대화할 수 있는 AI 비서를 구현하기 위해 세상에 대한 기본 지식과 상식을 가진 특화된 AI 칩을 설계하고 있다. 또한 페이스북(Facebook)에 게재되는 수많은 영상의 게재 허용 여부를 판정하기 위한 AI 칩도 자체 개발하고 있다.

이커머스(E-commerce)와 클라우드 서비스에 주력하고 있는 아마존에서도 AI 비서 ‘알렉사’ 구현을 위해 ‘인퍼런시아(Inferentia)’라는 AI 가속기를 자체 개발해 사용 중이다. 이 가속기는 음성 신호를 인식하는 목적으로 사용된다. 클라우드 서비스를 제공하는 AWS는 인퍼런시아 칩을 사용하는 기반(Infrastructure)을 갖추고, 구글(Google)의 TPU처럼 클라우드 서비스 사용자에게 딥 러닝 워크로드(Deep-learning Workload)를 가속할 수 있는 기능을 서비스하고 있다.

마이크로소프트(Microsoft)는 현재뿐만 아니라 미래의 응용 분야에도 최적화된 AI 칩을 만들기 위해 FPGA(Field Programmable Gate Array)20)를 데이터 센터에 탑재하고 응용 알고리즘에 따라 그 정밀도(Precision)와 심층 신경망 구조를 재구성(Reconfigure)하는 방식을 시도하고 있다.

하지만 이 방식은 최적의 구조를 찾아냈다 하더라도 그 구조와 논리 회로로 재구성하기 위해 큰 비용이 소요된다. 결과적으로 특정 목적을 위해 특별히 설계된 ASIC(Application Specific Integrated Circuit)21)보다는 에너지와 성능 면에서 크게 불리할 수밖에 없어, 실제 이익이 있을지 확실하지 않다.

또한 한정된 응용 분야에 특화되지 않고 다양한 용도로 사용할 수 있는 가속기를 개발해 엔비디아(NVIDIA)에 대항하려는 여러 팹리스(Fab-less) 스타트업들도 등장하고 있다. 이미 세레브라스(Cerebras Systems), 그래프코어(Graphcore), 그로크(Groq) 등 많은 회사가 시장에서 치열하게 경쟁하고 있다.

▲SK텔레콤의 AI반도체 SAPEON X220

국내에서는 SK하이닉스가 올해 초 SK텔레콤에서 분사한 AI 반도체 전문 기업 사피온(SAPEON)과 협력해 AI 반도체 ‘사피온’을 개발하고, 이를 데이터 센터에 사용할 예정이다. 더 나아가 PIM 기술이 적용된 SK하이닉스의 반도체(GDDR6-AiM)와 ‘사피온’이 결합된 기술도 선보일 계획이다. 또한 퓨리오사 AI(Furiosa AI)에서는 ‘워보이(Warboy)’를 개발해 상업화하고 있다.

이렇게 개발된 인공지능 하드웨어는 구동하는 소프트웨어가 얼마나 최적화돼 있는지에 따라 그 성능이 크게 좌우된다. 수천, 수만 개의 연산 회로를 시스톨릭 배열(Systolic Array)22)을 통해 동시에 구동하고 그 결과를 효율적으로 취합하는 일은 고도의 계산에 따라 조직화(Coordination)하는 과정이 필요한 작업이다. 특히 제작된 AI 칩에 있는 수많은 연산 회로가 쉬지 않고 번갈아 동작하도록 데이터의 공급 순서를 정하고 계산 결과를 다음 단계로 보내는 일은 특화된 저장장치(Library)를 통해 이뤄져야 해, 효율적인 저장장치와 컴파일러(Compiler)23)를 개발하는 것이 하드웨어 설계 못지않게 중요하다.

엔비디아의 GPU도 그래픽 엔진에서 출발했다. 하지만 쿠다(Compute Unified Device Architecture, CUDA)24)라는 개발 환경을 통해 사용자가 쉽게 프로그램을 작성하고 GPU 위에서 효율적으로 작업을 수행할 수 있도록 해, AI 관련 커뮤니티에서 널리 사용될 수 있었다. 또한 구글에서는 자체 TPU를 활용하는 소프트웨어 개발을 돕기 위해 ‘텐서플로(TensorFlow)’라는 개발 환경을 제공하고 사용자가 더 쉽게 TPU를 활용할 수 있도록 지원하고 있다. 앞으로도 이러한 개발 환경이 더욱 다양하게 제공돼야 AI 칩의 활용도가 점점 더 높아질 것이다.

20) FPGA(Field Programmable Gate Array): 회로 변경이 불가능한 일반 반도체와 달리 용도에 맞게 회로를 다시 새겨넣을 수 있어 프로그램이 가능한 비메모리 반도체를 말한다.

21) ASIC(Application Specific Integrated Circuit): 특정 목적으로 설계된 비메모리 반도체를 의미한다.

22) 시스톨릭 배열(Systolic Array): 같은 기능을 가진 셀로 연결망을 구성해 전체적인 동기 신호에 맞춰 하나의 연산을 수행할 수 있도록 설계된 특수한 처리장치를 뜻한다.

23) 컴파일러(Compiler): 고급 언어로 쓰인 프로그램을 컴퓨터에서 즉시 실행될 수 있는 형태의 목적 프로그램으로 변환해주는 프로그램을 가리킨다.

24) 쿠다(Compute Unified Device Architecture, CUDA): 엔비디아에서 개발한 기술로 그래픽 처리 장치(GPU)에서 수행하는 (병렬 처리) 알고리즘을 C 프로그래밍 언어를 비롯한 산업 표준 언어를 사용하여 작성할 수 있도록 하는 GPGPU 기술을 말한다.

AI 칩과 전력소모

앞으로 AI 서비스는 서비스 질의 향상과 함께 전력소모를 절감하는 방향으로 전개될 것이다. 이를 위해 AI 칩 자체의 전력소모를 줄이려는 노력과 더불어 이를 위한 DNN 구조의 개발도 가속될 것으로 예상된다.

실제로 이미지넷(ImageNet)에서 오류(Error) 확률을 5% 이내로 줄이기 위해서는 1019의 부동소수점 연산이 필요하다고 알려져 있으며, 이는 뉴욕 시민이 한 달 동안 사용하는 전력의 양과 같다. 2016년 이세돌 9단과의 대국에 사용된 ‘알파고(AlphaGo)’의 경우 바둑을 두기 위한 인터페이스에 1,202개의 CPU와 176개의 GPU가 사용됐다. 이때 소모한 전력은 약 1MW로 이는 인간 두뇌의 전력 소모량인 20W와 비교하면 엄청나게 큰 차이라 볼 수 있다.

이후 개발된 ‘알파고 제로(AlphaGo Zero)’는 단 4개의 TPU를 사용하는 ‘Re-enforcement Learning’ 기법을 사용해 겨우 72시간의 학습 후 AlphaGo의 성능을 능가했다. 이는 신경망의 구조와 학습 방법에 따라 전력소모를 얼마든지 줄일 수 있음을 보여주는 사례로, 에너지 절약형 DNN 구조를 계속 연구·개발할 필요가 있다.

AI 반도체 시장의 미래

AI의 응용 분야가 확대되고 성과가 나타나면서 관련 시장 규모도 크게 확대될 것으로 전망된다. 일례로 SK하이닉스는 최근 메모리 반도체에 연산 기능을 더해 AI와 빅데이터 처리 분야에서 데이터 접근의 정체 현상을 해결할 수 있는 차세대 지능형 메모리반도체인 PIM(Processing-In-Memory) 개발 소식을 전했다. SK하이닉스는 이러한 PIM이 적용된 첫 제품으로 ‘GDDR6-AiM(Accelerator in Memory)’ 샘플을 선보였고, 지난 2월 말 미국 샌프란시스코에서 열린 반도체 분야 세계 최고 권위 학회인 ‘ISSCC 2022’에서 PIM 개발 성과를 공개했다.

▲SK하이닉스가 개발한 차세대 메모리반도체 PIM이 적용된 ‘GDDR6-AiM’

결국 AI 시장은 응용 시스템이 견인하며 계속 새로운 분야를 창출할 것이다. 또한 신경망 회로 구조에 따른 인터페이스 품질에 의해 서비스 질이 차별화될 것이다. 이러한 AI 시스템의 근간을 이루는 하드웨어인 AI 칩의 경우, 추론과 학습을 얼마나 빠르고, 정확하게, 적은 전력 소모로 구현하는지에 따라 경쟁우위가 결정될 것이다.

지금까지의 연구 결과로는 AI 칩의 전력 효율이 떨어지는 것으로 판명됐다. 따라서 향후 기능의 관점과 더불어 전력 효율의 관점에서도 새로운 신경회로망 구조를 연구할 필요가 있다. 하드웨어 측면에서 전력 효율의 핵심 요소는 메모리 접근 방식을 개선하는 것이다.

이에 따라 앞으로는 메모리 내에서 정보를 처리하는 PIM(Processing-In-Memory)과 시냅스 가중치(Synapse Weight)25)를 아날로그 메모리에 저장해 신경회로망을 뉴로모픽으로 모사하는 방식이 중요한 연구 주제로 다뤄질 것이다.

25) 시냅스 가중치(Synapse Weight): 전기 신호를 인접한 뉴런으로 전달하는 신호 전달 능력을 의미한다.

※ 본 칼럼은 반도체/ICT에 관한 인사이트를 제공하는 외부 전문가 칼럼으로, SK하이닉스의 공식 입장과는 다를 수 있습니다.

[보고서]인공지능 구현을 위한 AI 반도체 기술의 개발 동향

초록

인공지능(artificial intelligence, AI) 시대를 맞아 AI 반도체 산업이 급부상하고 있다. Gartner에 따르면 AI 반도체 시장은 2030년 시스템반도체 시장의 약 31.3%를 점유하여 135조 원의 규모를 형성할 것으로 예측되고 있으며, 한국·미국·중국·대만 등은 원천기술 선점을 위한 정부 주도의 육성 전략 및 투자를 진행하고 있다[1,2]. 글로벌기업들도 서버·스마트폰·자동차 등 AI 반도체 핵심시장 선점을 위해 집중투자에 나섰으며, 특히 구글, 테슬라 등 비반도체 기업과 스타트업들까지 경쟁에 뛰어든 상태다[1, 2].

AI 반도체는 학습?추론 등 AI 연산을 실행하는 데 최적화된 시스템반도체로서, 직렬처리 방식에 특화된 기존 반도체(CPU)의 한계를 극복하여 고성능·저전력 중심의 데이터 연산처리를 수행한다[3, 4]. AI 반도체는 아키텍처 구조 및 활용 범위에 따라 GPU(graphic processing unit), FPGA(field programmable gate arrays), ASIC(application specific integrated circuits), 뉴로모픽(neuromorphic) 칩으로 분류할 수 있다[3, 4]. Gartner사의 ‘Hype Cycle’에 따르면, 현재 GPU 가속기(accelerator)는 기술이 시장의 주류로 자리 잡아 성과를 거두기 시작하는 ‘생산성 안정 단계(Plateau of Productivity)’에 있으며, 그 뒤를 FPGA, ASIC, 뉴로모픽 하드웨어가 따르고 있다(그림 1).

AI 반도체는 활용 목적에 따라 방대한 데이터를 통해 ‘학습(training)’하는 단계와 학습한 내용을 바탕으로 적합한 결과를 ‘추론(inference)’하는 단계로 구분되며[3, 4], 학습·추론 과정을 통해 자연언어처리, AI 음성인식, AI 로보틱스, AI 영상분석 등의 분야에서 활용되고 있다(그림 2). AI 반도체는 사용 환경에 따라 대부분의 학습·추론이 실행되는 클라우드/서버용 및 스마트폰 및 IoT 등의 디바이스/에지용으로 구분되며, 점차 디바이스 중심의 AI 추론을 위한 소형화·저전력·고성능 중심의 AI 반도체 기술개발이 가속화되고 있다[3, 4].

본 보고서에서는 4차산업혁명의 핵심 기반 기술로 각광받고 있는 AI 반도체에 대한 기술 동향 및 산업 현황에 대해 살펴보고자 한다.

** 원문은 파일 다운받기를 해주세요 🙂

새 시대를 여는 기술의 결정체, 인공지능 반도체

[테크월드뉴스=서유덕 기자] 4차 산업혁명은 스마트(Smart) 사회 도래를 촉진한다. 스마트 홈·카·시티·팩토리 등 미래 애플리케이션을 구현하려면 대량의 비정형 데이터를 실시간으로 처리해야 하므로 인공지능(AI)이 반드시 필요하다. 4차 산업혁명이 지능(Intelligence)화 혁명이라고도 불리는 이유다.

AI 반도체는 AI 데이터 처리에 특화된 처리기(Processor)다. 지능화 혁명은 애플리케이션에 필요한 데이터 처리량과 속도를 높인다. 여기에 기계 학습(ML)과 심층 학습(DL)의 발전으로 AI가 확산되면서, 빅데이터의 수집·처리를 담당할 AI 반도체의 시장 규모와 기술 수준이 빠르게 성장하고 있다.

(출처: 게티이미지뱅크)

AI 반도체, 범용에서 전용으로

구현 목적, 방식, 플랫폼에 따라 세분화돼

AI 반도체는 시스템 구현 목적, 서비스 플랫폼, 기술구현 방식에 따라 그 종류를 분류할 수 있다. 시스템 구현목적을 기준으로 나누면 ‘학습용(Learning)’과 ‘추론용(Inference)’으로 구분된다. 학습용은 ML·DL 알고리듬(algorithm)으로 지식을 습득하는 데, 추론용은 학습한 내용을 토대로 외부 명령이나 상황을 인식·분석하는 데 적합한 반도체다. 서비스 플랫폼을 기준으로 나누면 데이터센터 ‘서버용’과 ‘엣지 디바이스용’으로 구분된다. 서버용은 데이터센터의 병렬연산 처리 수요에 대응하면서도 전력 효율이 높고 확장성과 유연성을 갖춰야 한다. 엣지 디바이스용은 개별 AI 서비스에 특화돼야 하면서도 전력 소모, 무게, 제조원가를 낮춰야 한다. 기술구현 방식을 기준으로 나누면 사용 목적에 맞게 프로그래밍할 수 있는 ‘필드 프로그래머블 게이트 어레이(FPGA)’, 특정 AI 시스템 구현 목적으로 제작되는 ‘주문형 반도체(ASIC)’, 특정 AI 시스템에 다수 사용되는 ‘특정 용도 표준 제품(ASSP)’으로 나뉜다.

AI 반도체 구분(출처: ‘인공지능 반도체 산업 발전전략(2020, 관계부처 합동)’)

가트너(Gartner)가 발표한 반도체 시장 전망에 따르면, AI 반도체는 중앙처리장치(CPU), 그래픽처리장치(GPU)에서 FPGA를 거쳐 심층 신경망(DNN; Deep neural Network) ASIC으로 전환되고 있다. 초기 AI 발전을 이끈 GPU는 그래픽 처리를 위해 연산 능력 자체에 유리한 병렬 처리 구조를 채택해 포괄적 제어와 순차적 컴퓨팅 처리에 집중된 CPU보다 AI 알고리듬 연산 수행에 유리하다. FPGA는 CPU와 병렬로 작동돼 시스템 혼란이나 병목현상 없이 AI를 구현할 수 있다. DNN ASIC은 낮은 전력 소모량으로 AI 알고리듬을 수행한다.

한편, AI 연산에 관한 기본 반도체의 한계(전력 소모 과다, 연산 효율 하락)를 보완하기 위해 ‘신경망처리장치(Neural Processing Unit; NPU)’, ‘지능형 메모리 반도체(Processor-In-Memory; PIM)’, ‘뉴로모픽(Neuromorphic)’ 등 차세대 AI 반도체가 연구·개발되고 있다. NPU는 기존 컴퓨팅에 쓰이는 순차 처리 방식 ‘폰 노이만 구조’를 낮은 전력·전압의 CMOS 로직과 메모리를 활용해 최적화한 것으로, 영상·이미지·음성인식 등에 AI 기술이 다수 활용되는 스마트폰에 NPU 탑재가 증가하는 추세다. 뉴로모픽 반도체는 코어를 병렬로 구성해 낮은 전력으로 높은 연산 성능을 내는, 인간의 뇌를 모방한 AI 전용 반도체다. 비정형 문자·이미지·음성·영상을 효율적으로 처리하는 뉴로모픽이 보편화될 경우 초저전력·고성능 AI가 더 확산될 전망이다.

AI 반도체 시장은 ‘역 퍼플오션’

시장 선점 경쟁 심화, 자체 개발·설계 증가

가트너와 정보통신정책연구원(KISDI)의 분석에 따르면, 전 세계 AI 반도체 시장은 향후 10년간 6배 성장해 2030년 총 1179억 달러 규모의 가치를 창출할 것으로 전망된다. 연평균 성장률이 2018년부터 2024년까지 35.8%로 예상되는 AI 반도체는 DRAM(-0.5%)과 NAND 플래시 메모리(10.1%)를 딛고 차기 반도체 산업을 주도할 것으로 보인다.

2018~2030년 인공지능 반도체 시장 규모(단위: 십억 달러, 출처: Gartner, KISDI)

2018~2030년 시스템 반도체 시장 내 인공지능 반도체의 비율(단위: %, 출처: Gartner, KISDI)

10년 뒤 전체 시스템 반도체 시장의 30%는 가장 최근에 등장한 AI 반도체가 차지할 전망인데, 아직은 시장 형성 과정 상 초기 단계인 ‘블루오션(blue ocean, 미개척시장)’이라고 볼 수 있다. 한국전자통신연구원(ETRI)이 발간한 ‘AI 반도체 시장 동향 및 경쟁력 분석(2020)’ 보고서에 따르면, 현재 AI 반도체 시장에 독보적인 점유율과 기술력을 갖는 업체는 없는 상황이다. 다만, 해외 반도체 설계 대기업은 오랜 기간 동안 CPU, GPU 시장에서 축적한 기술과 대규모 생태계를 앞세워 AI 반도체 시장을 점유해 나가는 중이고, 클라우드·디바이스 사업이 주력인 기업들도 AI 반도체를 개발·출시하고 있어 경쟁이 보다 더 격화되고 있다. 즉, ‘레드오션(Red Ocean, 경쟁시장)’ 같이 경쟁이 치열한 블루오션, ‘역 퍼플오션(Purple Ocean)’이라 부를 수 있는 모양새다.

주요 IT 기업의 AI 반도체 출시 현황(출처: ‘AI 반도체 시장 동향 및 경쟁력 분석(ETRI, 2020)’)

글로벌 CPU 시장을 양분하는 인텔, AMD와 GPU 시장을 석권한 엔비디아 등 글로벌 반도체 설계 대기업은 AI 반도체 시장을 선점하기 위해 앞다퉈 제품을 출시하고 있다. CPU 기반 AI 반도체 출시 현황을 살펴보면, AMD는 7나노(㎚) 공정 기반의 서버용 CPU인 ‘3세대 에픽 밀란 7003’ 시리즈를 3월 15일 발표했다. 인텔은 4월 7일 온라인 기자간담회를 통해 5G, AI, 클라우드 컴퓨팅의 성능을 개선하는 서버용 CPU인 ‘3세대 제온 스케일러블 프로세서(코드명: 아이스레이크)’ 시리즈를, 엔비디아는 4월 12일 개최한 ‘GPU 기술 컨퍼런스(GTC) 2021’에서 서버용 CPU인 ‘그레이스’와 자율주행차용 AI 프로세서 ‘아틀란(Atlan)’을 차례로 공개했다. 이들 제품은 기존 CPU보다 하드웨어 성능을 높이고 AI 연산을 지원하는 가속 기술을 강화해 대규모 AI 데이터 처리와 고성능컴퓨팅(HPC) 수요를 겨냥했다. 한편, 전 세계 모바일 애플리케이션 프로세서(AP) 시장을 주도하는 퀄컴은 2020년 9월 서버용 고성능 AI 추론 가속기 ‘클라우드 AI 100’을 출시한 바 있다.

GPU 기반 AI 반도체는 엔비디아가 시장을 주도하고 있다. 2020년 공개된 암페어 아키텍처 기반의 ‘엔비디아 A100’ GPU는 이미 마이크로소프트의 클라우드 컴퓨팅 플랫폼 ‘애저(Azure)’에 탑재됐으며, 6월 3일에는 ND A100 v4 VM(가상머신) 시리즈가 공식 출시되기도 했다. AMD와 인텔은 2020년 11월에 각각 HPC용 GPU ‘인스팅트 MI100’과 서버용 GPU ‘H3C XG310’을 발표했다. FPGA의 경우, 2020년 10월에 자일링스(Xilinx)를 인수·합병한 AMD가 시장을 주도하면서도 알테라(Altera)를 인수(2015년)한 인텔과의 경쟁 구도를 형성한 상황이다. 인텔은 2019년 ‘애질렉스(Agilex)’ 시리즈를, AMD는 2020년 자일링스 ‘버텍스(Vertex)’ 시리즈를 출시했다.

AI ASIC의 경우, 구글·마이크로소프트 등 IT 서비스 기업과 테슬라·애플 등 과거 반도체 수요 기업이 자체 개발에 나서는 추세다. 이로 인해, 전통 반도체 업체 외 기업이 개발한 NPU 또는 NPU 탑재 프로세서 제품이 시장에 다수 출시됐다. 구글은 자사의 딥러닝 프레임워크 ‘텐서플로우(TensorFlow)’를 지원하는 서버용 ‘TPU(Tensor Processing Unit)’ 1세대 제품을 2016년에 공개한 후 4세대(2020년)까지 출시했다. 마이크로소프트는 현실세계와 증강현실 데이터를 통합 처리하는 ‘HPU(Holographic Processing Unit)’를 개발해 홀로렌즈(HoloLens, 2015년)에 탑재했다. 테슬라는 2019년부터 ‘오토파일럿(테슬라 ADAS 시스템)’에 쓰이는 AI 반도체 ‘FSD(Full Self Driving)’를 직접 개발, 자사 차량에 사용하고 있다. 애플도 2020년 11월 CPU·GPU·NPU를 모두 자체 설계한 ARM 아키텍처 기반 모바일 시스템온칩(SoC) ‘M1’을 공개, 자사 제품에 탑재했다. 이밖에 퀄컴의 모바일AP ‘스냅드래곤 865+’, 엔비디아의 자율주행용 AI 반도체 ‘자비에(Xavier)’, 인텔 ‘하바나(Habana)’, IBM ‘파워 10’, 화웨이 ‘기린 990’, 바이두 ‘쿤룬(Kunlun)’ 등 많은 자체 설계·제작 AI ASIC이 있다.

뉴로모픽은 IBM ‘트루노스(TrueNorth)’·‘블루 레이븐(Blue Raven)’, 인텔 ‘로이히(Loihi), 퀄컴 ‘제로스(Zeroth)’ 등이 공개되며 초기 시장을 형성했으나, 아직은 시장 형성 이전 연구·개발 단계에 머물러 있다고 분석된다.

국내 업체들도 글로벌 시장 진입을 노리고 AI 반도체 개발에 나서고 있다. 특히 우리나라 반도체 업계는 메모리를 중심으로 높은 수준의 제조 역량을 갖고 있으며, IT 서비스 기업 중심의 AI 반도체 수요가 발달해 잠재력은 갖췄다는 평가를 받는다. 2020년 10월 정부 관계부처 합동으로 발표한 ‘인공지능 반도체 산업 발전전략’ 보고서에는 “국내 업계가 보유한 장점을 기반으로 민·관의 집중 투자와 도전적 연구, 조기 산업화를 통해 세계 시장을 선도할 수 있는 기회가 존재한다”는 내용이 포함됐다.

AI 반도체를 연구·개발하는 국내 업계 내에선 PIM이 대세다. CPU, GPU, 통신모듈, OS 등 시스템과 메모리를 통합한 PIM은 AI 반도체 중에서도 메모리 강국인 우리나라가 특히 강점을 보유한 분야다. 2월 17일 삼성전자는 고대역폭 메모리(HBM)와 AI 처리기를 결합한 ‘HBM-PIM’을 개발했다고 발표했으며, SK하이닉스는 2월 3일 열린 ‘세미콘 코리아’에서 PIM의 일종인 ‘AIM’을 개발 중이라고 밝힌 바 있다.

한편, 정부는 차세대 AI 반도체 시장을 선도하기 위해 국가 수준의 전략적 대응이 필요하다는 판단에 따라 2020년부터 2029년까지 예산 약 1조 원을 투입해 서버, 모바일, 엣지, 공통 분야 AI 반도체를 연구·개발하는 ‘차세대지능형반도체 기술개발사업’을 추진한다. 서버 분야에 SK텔레콤 등 15개 기관, 모바일 분야에 텔레칩스 등 11개 기관, 엣지 분야에 넥스트칩 등 17개 기관이 참여하며, 공통 분야는 ETRI와 한국과학기술원(KAIST)이 담당한다. 정부의 방침은 국가의 적극적 사업 추진을 바탕으로 국내 AI 반도체 가치사슬(value chain)을 형성, 해외 의존도를 낮추고 AI를 포함한 시스템 반도체의 글로벌 경쟁력을 제고하겠다는 것이다.

엔비디아 능가한다는 국내 AI반도체 스타트업들…현실은? [긱스]

최근 국내 인공지능(AI)반도체 스타트업들이 여러모로 주목받고 있습니다. 삼성전자 인텔 등 빅테크 출신의 인재들이 AI스타트업으로 몰리고, 이들이 내놓은 제품이 최근 여러 평가에서 글로벌 기업의 반도체 성능을 넘어서기도 했습니다. AI는 여러 분야에 적용되는 ‘바탕 기술’이라는 점에서 한국 AI반도체의 약진은 반가운 일입니다. 하지만 국내 AI 반도체 기업들이 글로벌 경쟁력을 가지려면 아직 넘어야 할 산이 많아 보입니다. AI반도체의 쓰임새와 관련 기업들의 과제를 한경 긱스(Geeks)가 분석했습니다.

알파고가 이세돌 9단과 대결을 펼쳤던 6년전만 해도 AI는 현실과 동떨어진 기술이거나 학계에서 연구하는 영역으로 여겨졌다. 하지만 지금은 IT업계의 ‘바탕 기술’에 가까워졌다. 그만큼 쓰임새가 가파르게 늘고 있다.

7년 뒤 시스템 반도체 시장의 33% 차지

출처:KDB미래전략연구소 산업기술리서치센터

주목받는 국내 AI 반도체 스타트업

박성현 리벨리온 대표가 AI 반도체 아이온을 보여주고 있다. 리벨리온은 회사를 설립한 지 1년이 조금 넘은 시기에 아이온을 개발했다. 김영우 기자

이미지 크게보기 딥엑스의 AI반도체에 대한 설명. 2023년부터 상용 제품이 나온다. 제공 딥엑스

장밋빛 미래?

참, 한가지 더

이종호 과학기술정보통신부 장관(오른쪽)이 취임 이후 첫 현장 행보로 지난 5월 퓨리오사AI에 방문했다. 백준호 퓨리오사AI 대표가 자사 제품에 대해 설명하고 있다. 연합뉴스

글로벌 반도체 업계에서도 AI가 관심사다. AI를 활용해 반도체의 성능을 높일 수 있기 때문이다. 각국 정부도 AI반도체에 관심이 많다.반도체는 경제적 가치만 있는 것이 아니다. 국가 안보 상 필수 자산으로 꼽힌다. IT 제품뿐만 아니라 자동차 등 사용처가 계속 늘고 있다. 한국은 삼성전자, SK하이닉스 등의 선전으로 글로벌 메모리 반도체 시장에서는 점유율 1위를 유지하고 있다. 하지만 한국 기업은 시스템 반도체 분야에서는 열세다. 글로벌 시장조사업체 가트너에 따르면 한국은 전 세계 규모가 1245억달러인 메모리반도체 시장에서 점유율 56%를 차지하고 있다. 하지만 메모리 시장의 두 배 이상(2724억달러)인 시스템 반도체 시장 점유율은 3%에 불과했다.최근 시스템 반도체 분야에서 주목받는 제품군이 AI 반도체다. AI가 전 산업으로 확산하고 데이터 처리량이 급증하면서 시스템 반도체 시장에서 AI 반도체 비중이 급격히 커지고 있다. 정보통신정책연구원(KISDI)에 따르면 AI 반도체는 오는 2030년 시스템 반도체 시장의 33%를 차지할 전망이다.AI 반도체는 AI 연산에 최적화된 시스템 반도체 제품군을 통칭한다. AI가 필요한 서비스의 대규모 연산을 빠른 속도에 작은 전력 소모로 해낸다. 일종의 특화된 비메모리 반도체다. AI 반도체가 나오기 전에는 CPU(중앙처리장치)나 GPU(그래픽처리장치)가 AI의 연산을 처리했다.CPU는 컴퓨터의 입력과 출력, 각종 명령어 처리 등을 모두 맡는 컴퓨터의 두뇌다. CPU는 보통 데이터를 하나하나 순서대로 직렬로 처리한다. 대규모의 데이터를 동시(병렬)에 분석하는 AI용으로 쓰기에 한계가 있다. GPU가 대안으로 떠올랐다. 대부분의 GPU는 고사양의 그래픽 수준이 필요한 게임을 위해 개발됐다. 데이터를 병렬로 처리하기 때문에 AI용으로 쓰이기 시작했다.역시 AI 연산을 위해 제작된 반도체가 아니기 때문에 성능이 부족했다. 그래서 GPU의 병렬 처리 방식을 유지하면서도 AI만을 위한 전용 반도체가 나오기 시작했다. CPU, GPU보다 널리 쓰이지는 못하지만 AI가 필요한 특정 분야에서는 효과적인 반도체다.AI 반도체는 내부 설계 구조에 따라 GPU, FPGA, ASIC, 뉴로모픽(Neuromophic) 반도체 등으로 구분이 가능하다. FPGA(Field Programmable Gate Array)는 회로 변경이 불가능한 일반 반도체와 달리 용도에 맞게 회로를 재구성할 수 있다. 활용 목적에 따른 회로 유연성이 강점이다. ASIC(Application Specific Integrated Circuit)은 특정 목적에 따라 제작된 주문형 반도체다. 처리가 속도가 가장 빠르고 에너지 효율성도 높다. 뉴로모픽 반도체는 기존 반도체 구조가 아닌 인간의 뇌(뉴런-시냅스 구조)를 모방해 연산처리, 저장, 통신 기능을 융합한 가장 진화된 형태의 반도체 기술이다. 성능과 전력 이용 효율성은 기존 반도체보다 뛰어나다. 하지만 범용성이 낮고 아직은 개발 단계다.AI의 확산으로 AI 반도체 시장도 급격히 커지고 있다. 가트너는 AI 반도체 시장 규모가 2019년 134억9000만달러에서 2025년 767억7000만달러로 성장할 것으로 예상했다.이 시장에는 글로벌 반도체 기업인 퀼컴, 인텔, 엔비디아는 물론 구글, 아마존, 애플 등 글로벌 IT 기업도 뛰어들었다. 국내에서는 삼성전자, SK하이닉스 등 반도체 제작업체와 SK텔레콤, KT 등 통신사도 투자를 확대하고 있다. 국내 스타트업도 최근 AI 반도체 시장에서 눈에 띄는 성과를 내고 있다. AI 반도체는 반도체 제작보다는 회로 설계(팹리스)가 더 중요하다. 거대 시설이 필요한 반도체 제조와 달리 관련 기술을 가진 스타트업도 충분히 승산이 있다.2020년에 창업한 리벨리온은 지난해 말 파이낸스용 AI 반도체 ‘아이온’으로 업계의 주목을 받았다. 아이온은 기존 시장의 강자였던 인텔의 ‘고야’보다 처리 속도가 30% 빠르고, 전력 소비 효율은 배 이상 높다고 회사 측은 설명했다. 리벨리온은 회사를 설립한 지 1년이 조금 넘은 시기에 아이온을 개발했다. 세계 최대 파운드리(반도체 수탁회사) 기업인 대만의 TSMC가 아이온 제작을 맡은 것도 업계의 관심을 끌었다. 반도체 쇼티지(공급 부족) 상황에서 TSMC가 신생 기업의 일감을 맡았기 때문이다.박성현 리벨리온 대표는 인텔, 삼성, 스페이스X를 거쳐 모건스탠리에서 퀀트(계량 분석) 개발자로 근무했다. 오진욱 최고기술책임자(CTO)는 IBM 왓슨연구소에서 AI 반도체 수석설계자였다. 의료 AI 스타트업 루닛에서 딥러닝 기술 개발한 김효은 최고제품책임자(CPO)도 리벨리온에 합류했다.아톰은 데이터센터용 반도체다. 데이터센터는 AI 반도체가 가장 많이 쓰는 곳이다.오픈엣지테크놀로지(오픈엣지)는 AI 반도체의 설계자산(IP) 전문 기업이다. 2017년 12월 설립된 오픈엣지는 AI 반도체 기판의 설계도 역할을 하는 설계자산을 제작해 반도체 회사에 판매한다. 반도체 칩 생산량에 따라 로열티 수입도 늘어나는 사업 모델이다. 사업 모델이 해외 반도체 설계자산기업 ARM과 비슷하다. 삼성전자에서 시스템 반도체를 개발하던 이성현 대표가 SK하이닉스, 칩스앤미디어 등의 연구원들과 창업했다.오픈엣지는 차량용 AI 반도체의 핵심인 NPU와 데이터를 저장하고 보내주는 메모리 시스템을 모두 제조할 수 있는 국내 유일한 회사로 알려져 있다. 오픈엣지의 IP을 적용한 AI 반도체는 기존 AI 반도체보다 전력 소모량이 절반으로 줄고 연산 효율은 30% 이상 높아진다는 것이 회사 측의 설명이다. 올 1월에는 기술성과 사업성을 인정받아 나이스디앤비 예비기술성평가에서 국내 반도체 업체 처음으로 AA등급을 받았다.딥엑스도 국내 대표적인 AI반도체 스타트업 중 하나다. 애플 ‘아이폰X’의 AP(애플리케이션 프로세서)를 만든 김녹원 대표가 2018년에 창업했다. 특정 단말기에서 사용하는 일명 ‘엣지용 AI 반도체’를 개발한다.’엣지용 AI 반도체’는 글로벌 AI 반도체 시장에서 가장 많이 쓰인다. 딥엑스의 NPU는 단말기에서 수집된 데이터를 데이터센터와의 연동 없이 저전력으로 신속하게 처리하는 것이 강점이다. 창업한 지 4년 만에 AI 반도체 관련 30여개의 원천 기술을 개발하고 100건 이상의 특허도 확보했다.주요 제품인 ‘딥엑스 시리즈’는 NPU 기반 시스템온칩(SoC)이다. SoC는 정보를 저장하는 메모리부와 디지털 및 아날로그 신호를 제어·가공·처리하는 프로세싱부로 구성된 반도체다. 딥엑스 시리즈는 AI 소프트웨어와 하드웨어를 동시에 최적화하면서 낮은 전력 소모에도 높은 연산 처리 성능을 제공한다고 회사 측은 설명했다.딥엑스는사용 분야에 따라 연산 성능의 수준을 따져 고객사는 자사에 맞는 솔루션을 선택하면 된다. 모두 딥러닝 기반의 객체 인식, 얼굴 인식, 음성 인식, 이미지 분류, 화질 개선 등의 AI 알고리즘 연산 처리를 지원한다.퓨리오사AI는 데이터센터와 엔터프라이즈 서버에서 AI 성능을 극대화할 수 있는 반도체를 개발하고 있다. 각종 데이터를 학습해 특정 결과를 추론하는 데 최적화된 AI 칩을 설계 중이다. AMD, 삼성전자에서 반도체 설계 연구를 하던 백준호 대표가 2017년 퓨리오사AI를 창업했다.퓨리오사AI는 지난해 세계적인 AI 반도체 성능 경연대회에서 미국 엔비디아를 제쳐 업계의 주목을 받았다. 첫 번째 시제품인 ‘워보이’가 글로벌 AI반도체 대회 ‘MLPerf(엠엘퍼프)’ 추론 분야에서 엔비디아의 ‘T4’를 넘어서는 성능 지표를 인정받았다. 워보이는 고성능 컴퓨터 비전(시각 인식) 활용에 적합하게 설계한 반도체다. 사진과 영상 데이터를 빠르게 분석해 원하는 것을 찾고 분류하는 과정에서 높은 성능을 보인다고 회사 측은 설명했다.국내 유망 AI 반도체 스타트업들이 최근 두각을 나타내고 있지만 아직 갈 길이 멀다는 분석도 나온다. 아직 시장의 검증을 제대로 받지 못했다는 우려다. AI 반도체용 IP를 개발한 업체를 제외하고 상용 제품을 내놓은 기업이 아직 없다. 모두 아직 개발 중이다. 업계에서는 고객사가 제대로 사용할 수 있는 제품은 3년 후에 나올 것으로 보고 있다.기술 수준을 더 높여야 한다는 지적도 나온다. 반도체 전문 벤처캐피털(VC)의 한 심사역은 “일부 스타트업은 해외업체보다 기술이 뛰어나다고 주장하지만 면밀하게 보면 애매한 구석이 있다”며 “전체 10개 항목 중 1개 정도는 뛰어날 수는 있지만 종합 점수로 보면 글로벌 상위권 기업과 격차가 상당히 크다”고 설명했다.기술이 좋아도 고객사를 충분히 확보하는 것도 쉽지 않다. AI 반도체가 필요한 업체는 성능뿐만 아니라 충분한 검증을 통해 기존 시스템과 호환성과 안정성도 인정받은 반도체를 선호한다. 국내 데이터센터 기업 관계자는 “데이터센터는 0.1초라도 문제가 생겨도 서비스 이용에 큰 차질이 생기기 때문에 시장에서 충분히 검증받고 익숙한 외산 AI 반도체를 계속 쓰기 쉽다”고 설명했다.세계 각국은 자국의 AI 반도체 산업의 경쟁력을 높이기 위해 갖은 방법을 동원해 지원하고 있다.한국 정부도 지난달 ‘AI 반도체 산업 성장 지원대책’을 발표했다. 5년간 원천 기술 확보에 1조200억원을 투입하고, AI 반도체 전문 인력 7000명 이상을 양성하는 것이 골자다. AI 반도체 기술 선도국인 미국과 10억원 규모의 신규 과제도 올해 착수한다.광주에 조성할 정부의 대규모 데이터센터에 국산 AI 반도체를 도입할 예정이다. 정부의 ‘지능형 철도 방범 시스템 구축사업’을 통해서는 국산 AI 반도체를 적용한 5000여대의 지능형 폐쇄회로TV(CCTV)를 전국에 설치한다. 스마트시티 등 AI반도체를 사용할 수 있는 정부의 다른 사업에도 국산을 활용할 방침이다.미국의 바이든 정부는 반도체 등 중국 의존도가 높은 분야에 대한 자국 중심의 공급망 재편을 추진 중이다. 중국은 지난해 반도체, AI 등을 7대 전략 분야로 선정했다. 독일은 반도체 산업 육성을 위해 100억 유로를 투입할 예정이다. 일본은 자국의 반도체 소재·제조장치 산업의 강점과 결합할 수 있는 해외 첨단 파운드리를 유치한다는 계획이다.김주완 기자

키워드에 대한 정보 인공 지능 반도체

다음은 Bing에서 인공 지능 반도체 주제에 대한 검색 결과입니다. 필요한 경우 더 읽을 수 있습니다.

이 기사는 인터넷의 다양한 출처에서 편집되었습니다. 이 기사가 유용했기를 바랍니다. 이 기사가 유용하다고 생각되면 공유하십시오. 매우 감사합니다!

사람들이 주제에 대해 자주 검색하는 키워드 [샤박tube] 인공지능(AI) 반도체 3분만에 이해하기

  • 반도체
  • 인공지능
  • 메모리
  • 비메모리
  • 자율주행차
  • GPU
  • 5G
  • 인텔
  • 삼성
  • 퀄컴
  • 아마존
  • 구글
  • 마이크로소프트
  • AI
  • AI반도체
  • semiconductor
  • artificial intelligence
  • 교육
  • 교양
  • 학술
  • 경제
  • 경영
  • 테크
[샤박tube] #인공지능(AI) #반도체 #3분만에 #이해하기


YouTube에서 인공 지능 반도체 주제의 다른 동영상 보기

주제에 대한 기사를 시청해 주셔서 감사합니다 [샤박tube] 인공지능(AI) 반도체 3분만에 이해하기 | 인공 지능 반도체, 이 기사가 유용하다고 생각되면 공유하십시오, 매우 감사합니다.

Leave a Comment