뉴스/행사&키노트

엔비디아 GTC 2021 키노트 요약 - 이러려고 ARM을 인수했구나?

노트북계의 TMI 게사장(crabbyreview) 2021. 4. 13. 19:57
반응형

최근에 엔비디아(NVIDIA)가 CPU 설계사인 ARM을 400억 달러(한화 약 47조원)에 인수하기로 결정했던 것이 제법 크게 이슈가 됐었습니다. ARM은 CPU를 설계하고, 그 설계를 이용하는 제조사들에게 로열티를 받는 구조로 운영이 되는 회사입니다. 그렇기 때문에 엔비디아가 ARM을 인수할 때 ARM 아키텍처를 독점하려고 하는 의도가 아니냐는 우려의 목소리도 많았죠.

 

특히 ARM은 요즘 대부분의 스마트폰에 사용되는 대중적인 CPU이기 때문에 특정 기업이 해당 설계를 독점할 경우 전 세계의 IT 인프라 자체가 휘청거릴 수도 있습니다.

 

엔비디아도 이런 분위기를 알고 있었는지, 올해 GTC 2021 키노트에서 이번 ARM 인수를 통해 어떤 기술을 개발하고자 하는지에 대한 내용을 집중적으로 다루더군요. 저는 개인적으로 인상적이었던 내용이 많았기 때문에 노트북과 직접적으로 관련된 얘기가 아님에도 불구하고 한번 구독자분들과 내용을 공유해보고자 합니다.

 

엔비디아 GTC2021 키노트 원본 영상

 


[ 목차 ]

 

1. 옴니버스 - 가상의 세계

 

2. DGX - 딥러닝과 데이터센터

 

3. 엔비디아 AI

 

4. 자율주행 자동차

 

5. 개인적인 감상

 

* 각 소제목을 클릭하시면 해당 부분으로 창이 이동합니다 *

 


1. 옴니버스 - 가상의 세계

 

[ 3D 그래픽을 가상 현실로 ]

 

간단히 말해서 엔비디아에서 새로 개발한 VR 환경 개발 툴이라고 생각하면 되겠습니다. 가상의 공간을 생성한 후 원하는 환경에 3D 모델을 삽입하면 별도의 변환 과정 없이 바로 사용자가 상호 작용 가능한 VR, 혹은 AR 환경으로 구축해주는 기능입니다.

 

클라우드 기반으로 여러 크리에이터가 동시에 하나의 공간에서 협업을 할 수 있는 시스템이라고 하네요. 마인크래프트와 같은 3D 게임에서 구축된 환경도 옴니버스를 통해 VR화 할 수 있다고 하니... 이제는 건축업계에서도 마인크래프트에서 건물을 지은 후 VR화 시켜서 클라이언트에게 발표하는 일도 생기지 않을까 하는 망상을 해봤습니다.

 


[ 물리의 법칙이 지켜지는 공간 ]

세부적인 물리 엔진이 구현되어 있는 가상 공간

 

컴퓨터 내에서 구현되는 모든 움직임과 물리 효과는 미리 프로그래밍되어 있습니다. 기체의 흐름, 딱딱한 기계와 사람 근육의 움직임의 차이, 부드러운 물건이 딱딱한 표면에 닿았을 때의 어떻게 반응하는지 등... 가상공간에서는 단순히 사물의 움직임뿐만 아니라 성질이 다른 물체의 상호작용이 어떻게 이루어져야 하는지도 중요합니다.

 

엔비디아는 옴니버스 내에서 이런 물리 효과를 인공지능 딥러닝을 통해서 시간이 지날수록 현실과 동일한 방식으로 사물의 움직임을 구현할 예정이라고 합니다. 예를 들어, 옴니버스 내에서 로봇의 팔이 움직일 때 내부에 있는 스프링의 탄성까지 고려해서 움직임과 충돌을 계산할 수 있을 것이라고 하네요.

 

그러니 이미 딥러닝 데이터베이스가 많이 쌓인 3D 오브젝트나 재질에 대해서는 크리에이터가 별도의 물리효과를 프로그래밍하지 않아도 알아서 알맞는 상호작용 반응을 보여준다는 것입니다.

 


[ 어떻게 활용하는가? ]

BMW 공장을 옴니버스로 가상화 하다

 

이번 발표에서 엔비디아는 옴니버스가 BMW의 생산 라인에 어떻게 활용되고 있는지를 예시로 보여줬습니다. 생산 라인을 옴니버스를 통해서 완전하게 가상화한 후, 그 공장을 구동하는 인공지능을 훈련하는 장소로 활용하는 장면이 인상적이더라고요.

 

공장을 자동화 하려면 그에 필요한 기기와 설비, 소프트웨어를 직접 구동하면서 시행착오를 겪는 수밖에 없습니다. 그런데 물리 법칙이 구현된 옴니버스의 가상 세계 내에서는 아무런 부담 없이 그런 테스트를 수 차례 반복할 수가 있는 것이죠. 생산 라인 내에서의 비효율적인 과정도 쉽게 발견해낼 수도 있을 거고요.

 

그 외에도 다양한 연구 개발, 친목 용도로 옴니버스의 활용도는 무궁무진해 보였습니다.

 


2. DGX - 딥러닝과 데이터센터

 

[ 급성장하는 데이터센터 시장 ]

 

과거에 "서버"란, 그저 방대한 데이터를 언제든지 사용할 수 있게 저장하는 용도에 지나지 않았습니다. 하지만 최근 딥러닝과 클라우드 컴퓨팅 산업의 발달로 인해 기존의 서버 시장은 데이터를 연산하고 배포하는 "데이터센터"로써의 역할을 수행하게 됐죠. (급부상하고 있는 게임 스트리밍 서비스도 대표적인 예)

 

따라서 데이터센터에서는 과거에 비해 요구하는 프로세서의 성능이 기하급수적으로 높아질 수밖에 없습니다. 엔비디아의 예측으로는 4~5년 후에는 전 세계의 데이터센터에서 필요로 하는 프로세서 성능이 지금보다 1000배 정도 높아질 것이라고 하더군요.

 

이는 프로세서의 성능이 24개월마다 2배로 향상할 것이라고 예측했던 무어의 법칙을 아득히 상회하는 예상치입니다. 기존의 x86 프로세서의 발전 속도로는 도저히 따라잡을 수 없다고 봐도 무방하겠죠. 그래서 엔비디아가 꺼내 든 카드가 바로 ARM 프로세서를 활용한 DPU(Data Processing Unit)의 개념입니다.

 


[ 엔비디아 블루필드 DPU ]

 

그래서 엔비디아에서는 데이터센터 전용 프로세서인 "블루필드" DPU를 만들었습니다. 기존 x86 프로세서는 다양한 장치나 소프트웨어와의 호환성이 뛰어나다는 것이 장점이지만, 그로 인한 설계의 복잡함 때문에 빠른 속도로 성능 개발이 이루어지기 힘든 구조였죠.

 

그래서 엔비디아의 블루필드 DPU는 x86 프로세서보다 범용성은 좁지만 전문화된 특정 작업에서는 고도의 효율을 자랑하는 ARM 프로세서를 사용했다고 합니다. 아마도 이런 서버 시장의 진입 때문에 ARM을 인수했던 것이 아닐까 싶네요.

 

ARM 프로세서는 엄청난 전력 효율을 앞세워서 무어의 법칙보다 빠른 속도로 성능 개량이 가능하다고 알려져 있습니다. 이는 애플의 최신 m1 프로세서를 통해서 이미 입증이 된 상태죠. 엔비디아는 2024년까지 블루필드 DPU의 성능을 1000배 이상 끌어올리겠다고는 하지만... 이건 두고 봐야겠습니다.

 


[ 테크라 칩의 부활? ]

 

최근 GPU의 성능은 눈부신 속도로 발전을  했죠. 그런 반면 기존의 x86 프로세서의 성능은 상대적으로 발전이 더딘 편이었습니다. 그리고 요즘은 GPU가 단순 그래픽 연산에만 사용되는 것이 아니라 단백질의 염기서열 분석, 가상화폐 채굴과 같은 병렬 연산에도 자주 사용이 되죠.

 

이 때문에 GPU의 성능 활용율이 높은 일부 작업에서는 가끔 시스템의 CPU 대역폭이 이를 따라가지 못해서 성능에 병목이 생기는 경우가 많습니다. 이 때문에 2020년 엔비디아 키노트에서도 메모리와 GPU가 직접 소통할 수 있는 기술도 소개했던 적이 있죠.

 

어찌 됐건, 이런 성능적인 병목 때문에 엔비디아가 과거에 테그라 칩을 만들었던 것처럼 별도의 ARM 기반 SoC 칩을 개발한다고 합니다. 코드명 "그레이스"라고 불리는 이 ARM 칩은 아직은 스마트폰보다는 데이터센터의 GPU 처리력을 극대화하기 위한 칩으로 보입니다.

 

소비자용 ARM 칩은 엔비디아가 직접 생산하지는 않고 중국의 미디어텍과 협업을 할 것으로 보입니다. 현재 개발 중인 미디어텍 MT819x 칩에는 엔비디아의 RTX30 그래픽 기술이 적용될 거라고 하네요. ARM CPU의 전력 효율과 엔비디아의 그래픽 기술력이라니... 기대되는 조합이긴 한데 하필이면 삼성이 아니라 미디어텍인 것이 조금 아쉽군요.

 


3. 엔비디아 AI

 

[ 모피어스 - 데이터센터의 인공지능 보안관 ]

 

인터넷이 발달함에 따라 정보의 보안도 중요한 이슈로 떠오르고 있습니다. 하지만 인간의 힘으로 서버 내에서 이루어지고 있는 무수히 많은 통신에 대해서 일일히 보안 점검을 한다는 것은 불가능에 가깝죠. 그래서 엔비디아는 딥러닝 기반의 인공지능 소프트웨어가 모든 통신 패킷을 실시간으로 감시할 수 있는 "모피어스"라는 보안 플랫폼을 개발했다고 합니다.

 

사실 "보안을 위해서 모든 통신 패킷을 감시한다"는 것은 매우 원초적이고 단순한 해결책이라서 지금까지는 기술력이 부족해서 구현을 못하고 있었다고 보는 것이 맞을 것 같네요. 엔비디아도 모피어스 같은 플랫폼을 개발할 수 있었던 이유가 ARM 프로세서 기반의 블루필드 DPU 덕분이라고 하니... 향후 x86 프로세서 시장이 이런 변화에 어떻게 대응할지 궁금해집니다.

 


[ 일상 생활에서의 AI ]

 

이번 발표는 너무 데이터센터, 기업 위주의 내용이었죠? 그래서 약간 일반 소비자들도 관심을 가질만한 내용도 가져왔습니다. 사실 DLSS, 안면 인식, 자동 번역 기능은 새로운 것은 아니지만, 이번에 공개된 자료들을 보면 이런 기술들이 점점 잘 다듬어져 가고 있다는 느낌을 받을 수 있었어요.

 

인공지능이 그래픽 연산을 보조해주는 DLSS 기능도 처음에 선보였을 때에는 성능 변화를 체감하기 힘들었는데, 최근에 출시된 사이버펑크 2077과 같은 타이틀에서 DLSS의 유무에 따른 성능 차이가 매우 커졌죠. 자동 번역 기능도 단순히 특정 알고리즘이나 음성인식 기능에 의존하는 것이 아니라 전반적인 문맥을 파악해서 어순을 능동적으로 재배치하는 모습이 인상적이었습니다.

 


4. 자율주행 자동차

 

[ 엔비디아의 자율주행 프로세서 ]

사실 저는 자동차 시장에 큰 관심이 없어서 엔비디아가 자율주행 자동차(AV)를 위한 칩을 만든다는 사실을 모르고 있었습니다. 발표 자료에 따르면 2018년에는 파커, 2020년에는 자비에르 칩이 출시가 됐었네요. 그런데 자율주행 자동차가 안전하게 운행하기 위해 처리해야 되는 데이터가 점점 많아지면서 이 AV 칩에서 요구되는 성능도 높아지고 있죠.

 

엔비디아는 추후 출시 예정인 AV 칩에는 ARM 프로세서 기반의 블루필드 DPU가 적용이 돼서 성능이 대폭 향상될 것이라고 합니다. 2024년에 출시 예정인 4세대 AV 칩인 "아틀라스"는 현재의 자비에르 칩보다 33배 이상 빨라질 것이라고는 하는데... 과연 이번 발표에서 엔비디아가 제시한 로드맵이 다 지켜질지는 두고 봐야겠습니다.

 


[ 스스로 생각하는 자동차 ]

 

지금까지 자율주행 자동차는 각종 센서를 기반으로 현 상황을 판단하면서 운전을 하는 방식이었습니다. 하지만 향후 엔비디아가 추구하는 자율주행은 자동차의 인공지능이 스스로를 하나의 개체로 인식해서 주변 환경에 대한 유기적인 판단을 할 수 있도록 만드는 것이 목표라고 하네요. 단순히 센서의 집합체에 그치는 것이 아니라, 스스로 상황 분석과 판단을 할 수 있을 정도로 말이죠.

 

그리고 초반에 소개했던 엔비디아 옴니버스를 사용해서 인공지능이 실제로 차량을 주행하지 않아도 가상의 공간에서 필요한 시뮬레이션을 진행하면서 스스로 딥러닝 과정을 거칠 수 있게 개발할 계획이라고 합니다.

 


5. 개인적인 감상

 

 

이번 엔비디아 발표를 통해 미래의 삶을 조금 엿볼 수 있었다고 생각합니다. 솔직히 옛날에 영화 "매트릭스"에서 보던 가상공간 훈련 장면이 오버랩되면서 신기했습니다. 그 동시에 인공지능이 인간 세상을 지배하는 내용의 "터미네이터"도 떠올라서 조금 무섭기도 했고요. (아재력)

 

엔비디아가 엄청난 비용을 투자해서 ARM을 인수한 것이 단순 시장 독과점을 위한 것은 아니었다는 생각도 들었어요. 물론 이번 발표가 이런 긍정적인 여론을 이끌어내기 위한 연막 작전일 수도 있었겠지만... 그래도 ARM 인수를 통해서 미래에 필요한 기술을 개발하려는 생각은 있다는 느낌은 받을 수 있었습니다.

 

여담이지만, 이런 최신 발표 자료를 볼때마다 제가 얼마나 우물 안의 개구리인지를 깨닫게 되는 것 같아요. 정말 세상은 넓고 미래의 기술을 개발하는 천재들이 정말 많구나... 싶기도 하고, 당장 오늘의 일만을 걱정하면서 살아가는 제 모습을 되돌아보게 되네요.

 


JN테크리뷰는 구독자분들의 관심을 통해 성장하는 채널입니다. 본 포스팅에 대한 의견이나 채널 관련 건의 및 요청 사항은 부담 없이 댓글로 남겨주시기 바랍니다. 저희 컨텐츠가 마음에 드신다면 유튜브, 혹은 디스코드를 채널도 방문해주세요.

 

본문을 통째로 퍼가는 것은 금지하되, 필요하신 내용을 부분적으로 인용하시는 것은 따로 동의를 구하지 않으셔도 됩니다. 원문 출처 링크만 확실하게 남겨주세요!

 


반응형