"젠슨 황이 2시간 동안 쏟아낸 용어들, 이제 하나도 안 어렵습니다"
2026년 3월 16일, NVIDIA CEO 젠슨 황(Jensen Huang)의 GTC 2026 키노트가 끝나고 나면 머릿속에 남는 건 흥분보다 혼란일 수 있습니다. "Vera Rubin", "EXAFLOPS", "에이전틱 AI", "토큰 경제"... 발표 자체는 대단해 보이는데, 정확히 뭘 말하는 건지 모르겠다면 이 글이 바로 그 답입니다.
이 글은 IT 비전문가, 초보 투자자, AI에 관심은 있지만 기술 배경이 없는 일반인을 위해 작성되었습니다. 어려운 전문 용어를 또 다른 전문 용어로 설명하지 않겠습니다. 비유와 일상 언어로, GTC 2026 키노트에 등장한 핵심 용어를 하나씩 풀어드립니다.
이 용어 사전과 함께 읽으면 좋은 글입니다. 👉 엔비디아 GTC 2026 1일차 총정리 — Vera Rubin, Groq 3 LPU, 1조 달러 주문, DLSS 5까지
1. 하드웨어 / 반도체 — 칩의 세계
2. 메모리 — 데이터의 창고
3. 성능 단위 — 숫자가 의미하는 것
4. 네트워킹 / 인터커넥트 — 칩들의 고속도로
5. 시스템 / 인프라 — AI 공장의 뼈대
6. AI / 소프트웨어 — 두뇌의 작동 방식
7. 자율주행 / 로보틱스 — 현실 세계의 AI
8. 게이밍 / 그래픽 — 눈으로 보는 AI
9. 투자 / 시장 — 돈의 언어
10. 기업/브랜드명 — 이름의 유래
1. 하드웨어 / 반도체 — 칩의 세계
GTC (GPU Technology Conference)
NVIDIA가 매년 여는 기술 컨퍼런스입니다. 애플의 WWDC, 삼성의 갤럭시 언팩과 비슷한 위상이지만, 초점이 AI와 GPU에 맞춰져 있습니다. 2026년에는 3월 16일 미국 산호세에서 열렸고, 젠슨 황이 약 2시간 동안 키노트를 진행했습니다.
GPU (Graphics Processing Unit)
원래는 게임 그래픽을 처리하기 위해 만들어진 칩입니다. 그런데 AI 시대가 오면서 가장 중요한 연산 장치가 되었습니다. 왜냐하면 GPU는 "단순한 계산을 동시에 엄청나게 많이" 하는 데 특화되어 있기 때문입니다. AI 학습은 결국 "엄청난 양의 단순 곱셈"이라서 GPU가 제격인 것입니다.
CPU (Central Processing Unit)
컴퓨터의 중앙 처리 장치입니다. 뭐든 다 할 수 있지만, 한 번에 하나씩 순서대로 처리합니다. 복잡한 판단이 필요한 작업(프로그램 실행, 운영체제 관리 등)에 적합합니다. GPU가 공장의 생산라인이라면, CPU는 전체를 지휘하는 관리자입니다.
LPU (Language Processing Unit)
Groq라는 회사가 만든 추론 전용 칩입니다. GPU가 AI를 "학습시키는 것"과 "대답하게 하는 것" 둘 다 하는 만능 선수라면, LPU는 "대답하는 것(추론)"만 극도로 빠르게 하는 전문가입니다. ChatGPT가 답변을 생성할 때처럼, 이미 학습된 AI가 실시간으로 응답하는 작업에 최적화되어 있습니다.
NVIDIA가 2025년 12월 Groq를 200억 달러에 인수한 후, GTC 2026에서 첫 제품인 Groq 3 LPU를 공개했습니다.
DPU (Data Processing Unit)
네트워크로 들어오는 데이터를 CPU 대신 처리해주는 전용 칩입니다. CPU가 본업(AI 연산)에 집중할 수 있도록, 데이터 정리와 보안 같은 "잡일"을 대신 맡습니다. NVIDIA의 BlueField가 대표적인 DPU입니다.
NIC (Network Interface Card)
컴퓨터를 네트워크에 연결해주는 장치입니다. 집에서 쓰는 랜카드의 초고성능 버전이라고 생각하면 됩니다. NVIDIA ConnectX 시리즈가 데이터센터용 고성능 NIC입니다.
TSMC (Taiwan Semiconductor Manufacturing Company)
세계 최대의 반도체 위탁 생산(파운드리) 회사입니다. NVIDIA, Apple, AMD 등 유명 칩 회사들이 직접 공장을 운영하지 않고, TSMC에 "이 설계대로 만들어주세요"라고 맡깁니다. 전 세계 첨단 반도체의 약 90%가 TSMC에서 생산됩니다.
공정 (nm, 나노미터)
반도체를 만드는 기술의 "정밀도"를 나타냅니다. 숫자가 작을수록 더 미세하게 회로를 새길 수 있고, 같은 면적에 더 많은 트랜지스터를 넣을 수 있습니다.
- 4nm (40억분의 1미터): 현재 최첨단. Blackwell Ultra에 사용
- 3nm: 차세대. Vera Rubin에 사용
- 1.6nm (A16): 2028년 Feynman 세대 예정
참고로 1나노미터는 머리카락 두께의 약 5만분의 1입니다.
듀얼 다이
하나의 칩 패키지 안에 반도체 칩(다이) 2개를 넣는 설계입니다. 칩 1개로는 크기 한계가 있으니, 2개를 나란히 붙여서 성능을 2배 가까이 끌어올리는 방법입니다. Blackwell Ultra와 Vera Rubin 모두 듀얼 다이 설계를 사용합니다.
3D 다이 스태킹
칩을 옆으로 나란히 놓는 대신 위아래로 쌓는 기술입니다. 같은 땅(면적)에 단독주택 대신 아파트를 지으면 더 많은 세대가 들어가는 것처럼, 칩을 수직으로 쌓으면 면적을 늘리지 않고도 성능과 용량을 키울 수 있습니다. 2028년 Feynman 세대에서 NVIDIA 최초로 도입됩니다.
트랜지스터
반도체의 가장 기본 단위입니다. 켜고(1) 끄는(0) 동작으로 정보를 처리합니다. 이 스위치가 많을수록 칩이 더 강력합니다. Blackwell Ultra에는 2,080억 개, Vera Rubin에는 3,360억 개가 들어갑니다. 사람 뇌의 신경세포(약 860억 개)보다 훨씬 많은 숫자입니다.
SM (Streaming Multiprocessor)
GPU 내부에 있는 연산 유닛입니다. GPU가 큰 공장이라면, SM은 그 안의 개별 생산라인입니다. SM이 많을수록 동시에 더 많은 작업을 처리할 수 있습니다. Blackwell Ultra에는 SM이 160개 들어 있습니다.
TDP (Thermal Design Power)
칩이 최대 성능으로 일할 때 소비하는 전력(와트)입니다. TDP가 높으면 성능도 높지만, 그만큼 열이 많이 나고 전기도 많이 씁니다. Blackwell Ultra B300의 TDP는 1,400W로, 일반 가정용 전자레인지(약 1,000W)보다 높습니다.
파운드리
다른 회사가 설계한 칩을 대신 만들어주는 공장입니다. NVIDIA는 칩을 "설계"하지만 직접 만들지는 않습니다. 제조는 TSMC, Samsung 같은 파운드리에 맡깁니다. 패션 브랜드가 디자인만 하고 제조는 OEM 공장에 맡기는 것과 같습니다.
2. 메모리 — 데이터의 창고
HBM (High Bandwidth Memory)
AI 연산에서 GPU가 요리사라면, HBM은 요리사 바로 옆에 있는 대형 냉장고입니다. 재료(데이터)를 꺼내러 멀리 갈 필요 없이, 팔만 뻗으면 바로 꺼낼 수 있습니다. 일반 메모리(DDR)가 마트에 가서 재료를 사오는 것이라면, HBM은 주방 바로 옆 냉장고에서 꺼내는 것입니다.
물리적으로도 GPU 칩 바로 옆에 수직으로 쌓아 올려 연결됩니다. 이렇게 가까이 있어서 데이터 전송이 엄청나게 빠릅니다.
HBM3e / HBM4 (High Bandwidth Memory 3rd Gen Extended / 4th Gen)
HBM의 세대 구분입니다. 숫자가 높을수록 최신이고 더 빠릅니다.
- HBM3e: 현재 세대. Blackwell Ultra에 사용. 대역폭 8TB/s
- HBM4: 차세대. Vera Rubin에 사용. 대역폭 22TB/s (HBM3e 대비 약 2.3배)
12-Hi / 16-Hi 스택
메모리 칩을 수직으로 얼마나 높이 쌓았는지를 나타냅니다. 12-Hi는 12층, 16-Hi는 16층입니다. 층이 많을수록 같은 바닥 면적에 더 많은 메모리 용량을 확보할 수 있습니다. Micron은 HBM4에서 12층(36GB)짜리를 양산하고, 16층(48GB)짜리도 샘플을 출하하고 있습니다.
SRAM (Static Random Access Memory)
HBM보다도 훨씬 빠르지만 용량이 매우 작고 비싼 메모리입니다. 냉장고(HBM)에서 재료를 꺼내 도마(SRAM) 위에 올려놓으면 가장 빠르게 손이 닿죠. Groq 3 LPU는 이 SRAM을 500MB나 넣어서 초고속 추론을 가능하게 했습니다.
코히어런트 메모리
CPU와 GPU가 같은 메모리 공간을 함께 사용하는 구조입니다. 원래 CPU와 GPU는 각자 별도의 메모리를 쓰고, 데이터를 주고받으려면 복사 과정이 필요합니다. 코히어런트 메모리에서는 이런 복사 없이 양쪽 모두 같은 데이터에 바로 접근할 수 있어서 훨씬 효율적입니다. DGX Station이 748GB 코히어런트 메모리를 제공합니다.
3. 성능 단위 — 숫자가 의미하는 것
FLOPS (Floating Point Operations Per Second)
컴퓨터가 1초에 소수점이 있는 계산(예: 3.14 x 2.71)을 몇 번 할 수 있는지를 나타냅니다. AI 학습과 추론은 본질적으로 이런 소수점 계산의 연속이라서, FLOPS가 AI 칩의 "근력"을 재는 기본 단위가 됩니다.
PFLOPS (Peta Floating Point Operations Per Second)
초당 1,000조 번의 연산입니다. Blackwell Ultra B300의 성능이 FP4 기준 15 PFLOPS입니다. 숫자가 너무 커서 감이 안 잡히죠? 1990년대 슈퍼컴퓨터 1대의 성능이 약 1 TFLOPS(1조 번)이었으니, 지금 GPU 1장이 그때 슈퍼컴퓨터 15,000대를 합친 것보다 빠릅니다.
EXAFLOPS (Exa Floating Point Operations Per Second)
PFLOPS의 1,000배입니다. 초당 100경 번 연산입니다. GB300 NVL72 랙(GPU 72장을 한 랙에 묶은 것) 하나가 1.1 EXAFLOPS를 달성했습니다. 이 정도면 전 세계 사람이 각각 초당 1억 2천만 번 계산하는 것과 같습니다.
TB/s (테라바이트/초)
1초에 얼마나 많은 데이터를 전송할 수 있는지를 나타냅니다. 1TB는 대략 고화질 영화 200편 분량입니다. HBM4의 대역폭 22TB/s는 "1초에 영화 4,400편을 전송할 수 있는 속도"입니다.
FP4 / NVFP4 (Floating Point 4-bit / NVIDIA Floating Point 4)
숫자를 표현하는 데 몇 비트를 쓰는지를 나타냅니다. FP4는 4비트로 숫자를 표현하는 것인데, 정밀도는 낮지만 속도가 엄청 빠릅니다. AI 추론에서는 "완벽히 정확한 답"보다 "거의 맞는 답을 초고속으로" 내는 게 중요할 때가 많아서, FP4처럼 정밀도를 낮추고 속도를 올리는 전략을 씁니다.
토큰
AI 언어 모델(ChatGPT, Claude 등)이 텍스트를 처리하는 최소 단위입니다. 정확히 한 글자나 한 단어는 아니고, 대략 한국어 1글자 또는 영어 단어의 일부에 해당합니다. "안녕하세요"는 대략 3-5개 토큰입니다.
젠슨 황이 말한 "토큰 경제(Token Economy)" 란, AI가 생성하는 토큰 하나하나가 곧 가치(돈)가 되는 시대가 온다는 뜻입니다. AI 팩토리가 원재료(데이터)를 넣고 제품(토큰)을 생산하는 공장이 된다는 비전입니다.
토큰/초
AI가 1초에 몇 개의 토큰을 생성하는지를 나타냅니다. 높을수록 AI가 빠르게 대답합니다. ChatGPT가 답변을 쓸 때 글자가 주르륵 나오는 그 속도가 바로 토큰/초입니다. Vera Rubin은 1GW 데이터센터 기준으로 초당 7억 토큰을 처리할 수 있습니다.
4. 네트워킹 / 인터커넥트 — 칩들의 고속도로
NVLink
NVIDIA가 만든 GPU 간 초고속 통신 기술입니다. 일반 도로(PCIe)로 GPU끼리 데이터를 주고받으면 느리니까, NVIDIA가 전용 고속도로를 깔아준 것입니다. 속도가 PCIe보다 수십 배 빠릅니다.
NVLink-C2C (Chip-to-Chip)
NVLink의 변형으로, GPU와 CPU 사이를 직접 연결합니다. 기존에는 GPU와 CPU가 일반 도로(PCIe)로 연결되어 있었는데, C2C는 둘 사이에도 전용 고속도로를 놓은 것입니다. DGX Station에서 1.8TB/s 속도를 제공하는데, 이는 PCIe Gen6의 7배입니다.
NVL72 / NVL144 / NVL1152
NVLink로 연결한 GPU 개수를 나타냅니다.
- NVL72: GPU 72개를 하나의 초거대 GPU처럼 사용 (현재)
- NVL144: GPU 144개 연결 (2027년 Vera Rubin Ultra + Kyber)
- NVL1152: GPU 1,152개 연결 (2028년 Feynman 세대)
인피니밴드 (InfiniBand)
데이터센터에서 서버들을 연결하는 초고속 네트워크 기술입니다. 일반 이더넷(버스)보다 지연 시간이 훨씬 짧아서 AI 학습 클러스터에서 주로 사용됩니다. NVIDIA의 Quantum-X 시리즈가 인피니밴드 스위치입니다.
이더넷 (Ethernet)
우리가 일상에서 쓰는 인터넷 연결 방식의 기본 규격입니다. 집에서 쓰는 랜선도 이더넷입니다. NVIDIA의 Spectrum-X는 이 이더넷을 AI 데이터센터용으로 강화한 제품입니다.
실리콘 포토닉스
전기 신호 대신 빛(광신호) 으로 데이터를 전송하는 기술입니다. 전기는 거리가 멀어지면 신호가 약해지고 열이 나지만, 빛은 훨씬 먼 거리를 빠르게, 적은 에너지로 전송할 수 있습니다. GTC 2026에서 Spectrum-X Photonics(이더넷)와 Quantum-X Photonics(인피니밴드) 모두 실리콘 포토닉스를 채택했습니다.
CPO (Co-Packaged Optics)
기존에는 네트워크 스위치 칩과 광학 모듈이 따로 존재했는데, CPO는 광학 부품을 스위치 칩 패키지 안에 직접 넣는 기술입니다. 데이터가 칩에서 나오자마자 바로 빛으로 변환되니까 속도가 빨라지고 전력도 절약됩니다.
스케일업 vs 스케일아웃
- 스케일업: 하나의 시스템 안에서 성능을 키우는 것. GPU를 NVLink로 연결하는 것이 대표적
- 스케일아웃: 여러 시스템을 네트워크로 연결해서 확장하는 것. 서버 랙 여러 대를 인피니밴드/이더넷으로 묶는 것
레이턴시
요청을 보내고 응답을 받기까지의 지연 시간입니다. 낮을수록 좋습니다. AI 챗봇에 질문을 했을 때 답이 바로 나오면 레이턴시가 낮은 것이고, 한참 기다려야 하면 높은 것입니다. Groq LPU가 추구하는 것이 바로 이 "초저 레이턴시 추론"입니다.
5. 시스템 / 인프라 — AI 공장의 뼈대
DGX
NVIDIA의 AI 컴퓨터 브랜드입니다. 이번 GTC에서는 두 가지가 화제였습니다:
- DGX Station: 책상 위에 놓는 AI 슈퍼컴퓨터. 1조 파라미터 모델을 로컬에서 돌릴 수 있습니다 (가격은 수천만 원대)
- DGX Spark: 더 작은 버전. 최대 4대를 연결하면 "데스크탑 데이터센터"가 됩니다
랙 (Rack)
데이터센터에서 서버 장비를 세로로 쌓아 놓는 표준 캐비넷입니다. 높이가 약 2미터이고, 그 안에 여러 서버를 층층이 넣습니다. "NVL72 랙"이라고 하면 GPU 72개가 들어간 하나의 랙을 의미합니다.
블레이드 / 섀시 / 미드플레인
- 블레이드: 랙에 꽂는 슬림형 서버 보드 (서랍)
- 섀시: 블레이드들을 넣는 외부 프레임 (서랍장)
- 미드플레인: 블레이드 간 연결을 담당하는 중앙 회로 기판 (서랍장 뒷면의 전기 배선). Kyber 아키텍처에서는 이 미드플레인 덕분에 케이블 없이 연결이 가능합니다.
액냉 (Liquid Cooling)
공기(팬) 대신 액체(물, 냉매)로 칩의 열을 식히는 방식입니다. AI GPU는 전력을 엄청나게 소비하면서 열도 많이 나는데, 선풍기(공냉)로는 한계가 있어서 물을 순환시켜 냉각합니다. Vera Rubin NVL72은 45도C 온수 냉각을 사용합니다.
하이퍼스케일
AWS(아마존), Azure(마이크로소프트), Google Cloud 같은 초대규모 클라우드 서비스 회사를 말합니다. 이들은 수만–수십만 대의 서버를 운영하며, NVIDIA GPU의 최대 고객입니다. GTC에서 Azure가 Vera Rubin NVL72의 최초 하이퍼스케일 고객으로 발표되었습니다.
AI 팩토리
젠슨 황이 제시한 개념입니다. 전통적인 공장이 원재료를 넣고 제품을 만들어내듯, AI 팩토리는 데이터를 입력받아 토큰(AI 지능) 을 생산하는 공장입니다. "AI 팩토리 시대"라는 말은 곧 데이터센터가 단순한 서버 보관소가 아니라, 가치를 생산하는 공장이 된다는 뜻입니다.
6. AI / 소프트웨어 — 두뇌의 작동 방식
에이전틱 AI (Agentic AI)
기존 AI(ChatGPT 등)는 "물어보면 대답하는 비서"입니다. 에이전틱 AI는 여기서 한 단계 더 나아가, 스스로 계획을 세우고, 도구를 사용하고, 여러 단계의 작업을 자율적으로 수행하는 AI입니다.
예를 들어:
- 기존 AI: "내일 서울 날씨 알려줘" → "맑음, 15도입니다"
- 에이전틱 AI: "내일 소풍 계획 짜줘" → (날씨 확인 → 적합한 장소 검색 → 교통편 예약 → 도시락 메뉴 추천 → 캘린더 일정 등록까지 자동 수행)
젠슨 황은 GTC 2026에서 "80%의 애플리케이션이 사라진다"고 했는데, 에이전틱 AI가 개별 앱의 역할을 대신하게 될 것이라는 뜻입니다.
추론 (Inference) vs 학습 (Training)
- 학습(Training): AI가 엄청난 양의 데이터를 보면서 패턴을 배우는 과정. "공부"에 해당합니다. 수천 대의 GPU로 수주–수개월이 걸립니다
- 추론(Inference): 학습이 끝난 AI가 실제로 질문에 답하거나 예측을 내놓는 과정. "시험 보기"에 해당합니다
젠슨 황이 말한 "추론의 변곡점" 이란, 지금까지는 AI를 "학습시키는 데" 돈과 GPU가 많이 들었지만, 이제는 "사용하는 데(추론)" 더 많은 자원이 필요한 시대가 왔다는 뜻입니다.
LLM (Large Language Model)
ChatGPT, Claude, Gemini 같은 대규모 언어 모델입니다. 인터넷의 방대한 텍스트 데이터를 학습해서 사람처럼 글을 읽고, 이해하고, 생성할 수 있습니다. "Large"는 모델의 크기(파라미터 수)가 크다는 뜻입니다.
파라미터
AI 모델 내부에서 학습을 통해 조정되는 숫자들입니다. 파라미터가 많을수록 모델이 더 복잡한 패턴을 학습할 수 있지만, 그만큼 더 많은 연산과 메모리가 필요합니다. GPT-4급 모델은 수천억–수조 개의 파라미터를 가지고 있고, DGX Station은 1조 파라미터 모델을 로컬에서 실행할 수 있습니다.
CUDA (Compute Unified Device Architecture)
NVIDIA가 만든 GPU 프로그래밍 플랫폼입니다. 원래 GPU는 그래픽만 처리했는데, CUDA 덕분에 개발자들이 GPU를 AI, 과학 계산 등 다양한 용도로 활용할 수 있게 되었습니다. 2006년에 처음 나왔고, GTC 2026에서 20주년을 기념했습니다. AI 생태계에서 NVIDIA의 독보적 지위를 만들어준 핵심 기술입니다.
MoE (Mixture of Experts, 전문가 혼합 모델)
AI 모델 안에 여러 "전문가 네트워크"가 있고, 질문의 종류에 따라 적합한 전문가만 활성화하는 구조입니다. 병원에서 모든 의사가 모든 환자를 보는 게 아니라, 증상에 맞는 과(전문가)에 배정하는 것과 같습니다. 전체를 다 가동하지 않으니 연산이 효율적입니다. NVIDIA의 Nemotron 모델이 이 MoE 구조를 사용합니다.
가드레일
AI가 위험하거나 부적절한 답변을 하지 않도록 제한하는 안전장치입니다. 자동차가 도로를 벗어나지 않게 가드레일이 있듯, AI도 정해진 범위 안에서만 동작하도록 가드레일을 설치합니다. NemoClaw에 이 기능이 포함되어 있습니다.
벡터 검색
일반 검색은 키워드가 정확히 일치해야 찾아주지만, 벡터 검색은 의미가 비슷한 것을 찾아줍니다. "강아지 산책"을 검색하면 "반려견 외출"도 찾아주는 방식입니다. 텍스트나 이미지를 숫자(벡터)로 변환한 뒤, 숫자가 가까운 것끼리 매칭합니다.
블루프린트
특정 작업을 수행하는 AI 파이프라인의 사전 구성된 설계도입니다. 처음부터 만들 필요 없이, NVIDIA가 제공하는 블루프린트를 가져다 쓰면 됩니다. GTC에서 발표된 AI-Q Blueprint(딥 리서치용)나 Physical AI Data Factory Blueprint(로봇/자율주행용) 등이 있습니다.
7. 자율주행 / 로보틱스 — 현실 세계의 AI
레벨 4 (L4) 자율주행
자율주행에는 레벨 0–5가 있습니다:
- 레벨 2: 차선 유지 + 크루즈 컨트롤 (현재 테슬라 오토파일럿)
- 레벨 3: 특정 상황에서 운전대에서 손 떼기 가능
- 레벨 4: 정해진 구역 내에서 사람 개입 없이 완전 자율주행 (로보택시)
- 레벨 5: 어디서든 완전 자율주행 (아직 미존재)
GTC에서 Uber, BYD, 현대 등이 NVIDIA Drive Hyperion 기반으로 레벨 4 차량을 개발한다고 발표했습니다.
피지컬 AI (Physical AI)
ChatGPT 같은 AI는 디지털 세계(화면, 텍스트)에서만 작동합니다. 피지컬 AI는 현실 세계의 물리 법칙을 이해하고 물체를 다루는 AI입니다. 로봇이 물건을 집고, 자동차가 스스로 운전하고, 공장이 자동으로 돌아가는 것이 모두 피지컬 AI입니다.
휴머노이드 로봇
사람의 형태를 본뜬 2족 보행 로봇입니다. GTC에서 NVIDIA의 GR00T N2 모델이 공개되었고, Figure, Agility 등 파트너사의 휴머노이드 로봇 110대가 전시되었습니다. 디즈니 올라프 캐릭터가 자유보행 로봇으로 깜짝 등장하기도 했습니다.
합성 데이터
실제 촬영/수집한 데이터가 아니라, 컴퓨터 시뮬레이션으로 만들어낸 학습용 데이터입니다. 자율주행차를 학습시키려면 수십억 장의 도로 사진이 필요한데, 전부 실제로 찍을 수는 없으니 가상 세계에서 다양한 상황을 만들어 학습시키는 것입니다.
디지털 트윈
실제 공장, 건물, 도시 등을 가상 공간에 똑같이 복제한 시뮬레이션 모델입니다. 가상 쌍둥이에서 먼저 시험해보고, 문제가 없으면 실제에 적용합니다. Foxconn이 텍사스 신공장을 NVIDIA Omniverse로 미리 디지털 트윈을 만들어 설계/최적화했습니다.
Omniverse
NVIDIA의 3D 시뮬레이션/디지털 트윈 플랫폼입니다. 건축, 제조, 로보틱스 등 다양한 산업에서 가상 세계를 만들고 시뮬레이션할 수 있는 도구입니다.
8. 게이밍 / 그래픽 — 눈으로 보는 AI
DLSS (Deep Learning Super Sampling)
게임을 낮은 해상도로 렌더링한 뒤, AI가 이것을 고해상도로 업스케일링하는 기술입니다. 100만 원짜리 그래픽카드 없이도 200만 원짜리 수준의 화질을 즐길 수 있게 해줍니다.
DLSS 5 — "그래픽의 GPT 모먼트"
GTC 2026의 게이밍 분야 최대 발표입니다. 기존 DLSS가 "저해상도를 고해상도로 키우는 것"이었다면, DLSS 5는 한 단계 더 나아가 게임 엔진의 3D 데이터를 AI가 직접 분석해서 픽셀을 새로 그려내는 기술입니다. 젠슨 황이 "2018년 실시간 레이 트레이싱 이후 최대 그래픽 브레이크스루"라고 표현했습니다. 2026년 가을 출시 예정입니다.
뉴럴 렌더링
AI 신경망(뉴럴 네트워크)을 사용해서 3D 그래픽을 생성하거나 보강하는 기술입니다. 전통적인 렌더링이 수학 공식으로 빛과 색을 계산하는 것이라면, 뉴럴 렌더링은 AI가 "이 장면은 이렇게 보여야 해"라고 학습한 결과를 바탕으로 그려내는 것입니다.
레이 트레이싱
현실에서 빛이 물체에 반사되고, 굴절되고, 그림자를 만드는 과정을 컴퓨터로 재현하는 기술입니다. 게임에서 물에 비친 반사, 유리창의 굴절, 자연스러운 그림자 등이 레이 트레이싱 덕분에 가능합니다.
9. 투자 / 시장 — 돈의 언어
백로그 (Backlog)
아직 배송되지 않은 누적 주문 잔고입니다. 백로그가 많으면 앞으로 매출이 꾸준히 나올 것이라는 뜻이므로, 투자자들이 좋아하는 지표입니다. 젠슨 황이 2027년까지 1조 달러 규모의 주문이 예상된다고 발표한 것이 바로 이 백로그 전망입니다.
TAM (Total Addressable Market)
특정 제품이 이론적으로 팔릴 수 있는 시장의 총 규모입니다. NVIDIA가 GPU뿐 아니라 CPU(Vera), LPU(Groq), DPU(BlueField), 네트워킹(Spectrum-X)까지 사업을 넓히는 이유는 TAM을 키우기 위해서입니다.
목표가 (Price Target)
증권사 애널리스트가 "12개월 후 이 주식의 가격이 이 정도 될 것"이라고 예상하는 가격입니다. GTC 이후 Wells Fargo는 NVIDIA 목표가를 $265로 제시했는데, 당시 주가 $183 대비 45% 상승 여력이 있다는 뜻입니다.
컨센서스
여러 애널리스트의 투자 의견과 목표가를 종합한 평균입니다. NVIDIA의 GTC 후 컨센서스는 매수 54–58 / 보유 2 / 매도 1로, 월가 대부분이 매수를 추천하고 있다는 뜻입니다.
차익실현
주가가 올랐을 때 보유 주식을 팔아서 이익을 확정하는 행위입니다. GTC 당일 NVIDIA 주가가 장중 +4.8%까지 올랐다가 종가 +1.7%로 줄어든 것은, 일부 투자자들이 발표 후 차익실현을 했기 때문입니다.
ETF (Exchange Traded Fund)
여러 주식을 하나의 묶음으로 만들어 주식처럼 거래할 수 있는 펀드입니다. VanEck Semiconductor ETF는 반도체 관련 주식들의 묶음으로, 개별 종목을 고르기 어려운 투자자가 반도체 업종 전체에 투자할 수 있게 해줍니다.
10. 기업/브랜드명 — 이름의 유래
NVIDIA GPU 세대 이름의 비밀
NVIDIA는 GPU 세대에 위대한 과학자 이름을 붙입니다:
| 세대 | GPU 이름 | CPU 이름 | 유래 | 시기 |
|---|---|---|---|---|
| 현재 | Blackwell (B300) | Grace | 데이비드 블랙웰 (수학자) / 그레이스 호퍼 (컴퓨터 과학 선구자) | 현재 출하 중 |
| 차세대 | Rubin | Vera | 베라 루빈 (암흑 물질을 발견한 천문학자). GPU와 CPU 모두 같은 사람 이름에서 유래 | 2026 하반기 |
| 차차세대 | Feynman | Rosa | 리처드 파인만 (물리학자, 노벨상) / 로잘린드 프랭클린 (DNA 구조 발견 기여) | 2028년 예정 |
주요 제품/기업명 해설
| 이름 | 한줄 설명 |
|---|---|
| Groq | 추론 전용 칩(LPU) 개발사. 2025년 NVIDIA가 200억 달러에 인수 |
| OpenClaw | 개인 AI 에이전트용 오픈소스 프레임워크. 젠슨 황이 "Mac, Windows에 비견"하며 극찬 |
| NemoClaw | NVIDIA가 OpenClaw에 기업용 보안/프라이버시 기능을 추가한 버전 |
| Nemotron | NVIDIA가 개발한 오픈 AI 모델 시리즈 (Nano/Super/Ultra/Omni) |
| Kyber | 차세대 랙 아키텍처. GPU 144개를 수직 배치하고 케이블 없이 연결 |
| Cosmos | 합성 세계 생성 + 시각 추론 AI 모델. 피지컬 AI의 학습 데이터 생성에 활용 |
| GR00T | 범용 휴머노이드 로봇 AI 모델. N2 버전이 GTC 2026에서 공개 |
| Newton | Google DeepMind, Disney Research와 공동 개발한 오픈소스 물리 엔진 |
| BioNeMo | 생명과학용 AI 플랫폼. 신약 발견, 단백질 구조 예측 등 |
GTC 2026 키노트 핵심 숫자 한눈에 보기
| 숫자 | 의미 |
|---|---|
| 1조 달러 | 2027년까지 Blackwell + Vera Rubin 주문 전망 (기존 5천억 달러에서 2배 상향) |
| 3,360억 개 | Vera Rubin GPU의 트랜지스터 수 (Blackwell의 1.6배) |
| 50 PFLOPS | Vera Rubin의 NVFP4 추론 성능 |
| 1.1 EXAFLOPS | GB300 NVL72 랙 하나의 연산 성능 |
| 22TB/s | HBM4의 메모리 대역폭 (HBM3e의 2.3배) |
| 7억 토큰/초 | Vera Rubin이 1GW 데이터센터에서 처리하는 속도 (이전 세대 대비 32배) |
| 10배 | Vera Rubin의 Grace Blackwell 대비 전력 대비 성능 |
| 28개 도시 | Uber 로보택시 배치 계획 (4개 대륙, 2028년까지) |
| 110대 | GTC 전시장에 등장한 로봇 수 |
| 50억 달러 | NVIDIA가 Intel에 투자한 금액 (파운드리 협력) |
이 용어 사전은 GTC 2026 키노트 분석과 함께 작성되었습니다. 키노트의 구체적인 발표 내용과 투자 시사점이 궁금하다면 아래 글을 참고하세요:
👉 엔비디아 GTC 2026 1일차 총정리 — Vera Rubin, Groq 3 LPU, 1조 달러 주문, DLSS 5까지
본 글은 GTC 2026 키노트에서 사용된 기술 용어를 비전문가가 이해할 수 있도록 풀어 설명한 교육 목적의 콘텐츠입니다. 특정 종목의 매수/매도를 추천하지 않으며, 투자 판단은 본인의 책임 하에 이루어져야 합니다. 기술 사양과 수치는 NVIDIA 공식 발표(2026년 3월 16일) 기준이며, 향후 변경될 수 있습니다.
참고 자료