"2일차에 새로 쏟아진 용어들, 1일차 용어집과 이어서 한 번에 정리합니다"
GTC 2026 1일차 키노트가 하드웨어의 향연이었다면, 2일차는 소프트웨어 생태계, 파트너십, 그리고 AI가 현실 세계로 나가는 이야기가 중심이었습니다. "Nemotron Coalition", "오픈 프런티어 모델", "HBM4E", "플라이휠"... 1일차 용어집에서 다루지 않았던 새로운 개념들이 대거 등장했습니다.
이 글은 1일차 용어집의 후속편으로, 2일차에 새로 등장한 용어만 모아 정리합니다. 1일차 용어집에서 이미 다룬 GPU, HBM, CUDA, 에이전틱 AI 같은 개념은 반복하지 않으니, 처음 읽는 분이라면 1일차부터 먼저 읽어주세요.
GPU, HBM, CUDA, 에이전틱 AI 등 기본 용어가 모두 정리되어 있습니다.
엔비디아 GTC 2026 키노트 용어 총정리 — GPU부터 에이전틱 AI까지 초보자 눈높이 해설
이 용어 사전과 함께 읽으면 좋은 글입니다.
엔비디아 GTC 2026 2일차 총정리 — 오픈 모델 패널, CUDA 20주년, 삼성 HBM4E 공개까지 핵심 정리
1. AI 소프트웨어 생태계 — 보이지 않는 경쟁의 본질
2. 메모리 / 반도체 — 2일차의 주인공들
3. 로보틱스 / Physical AI 모델 — 현실 세계로 나가는 AI
4. 자율주행 / 기후 과학 — AI의 새로운 전장
5. 투자 / 비즈니스 — 돈의 흐름을 읽는 용어
6. 2일차 핵심 숫자 한눈에 보기
1. AI 소프트웨어 생태계 — 보이지 않는 경쟁의 본질
파운데이션 모델 (Foundation Model)
ChatGPT, Claude, Gemini 같은 AI의 "기초 체력"에 해당하는 모델입니다. 인터넷의 방대한 데이터를 학습해서 다양한 작업에 범용으로 쓸 수 있도록 만든 대규모 AI 모델을 말합니다.
건물에 비유하면, 파운데이션 모델은 건물의 기초 공사입니다. 이 기초 위에 사무실(챗봇)을 지을 수도 있고, 병원(의료 AI)을 지을 수도 있고, 학교(교육 AI)를 지을 수도 있습니다. 기초가 튼튼할수록 더 다양하고 큰 건물을 올릴 수 있죠.
프런티어 모델 (Frontier Model)
파운데이션 모델 중에서 현존하는 최고 성능을 가진 모델을 특별히 "프런티어 모델"이라고 부릅니다. GPT-4o, Claude Opus 같은 모델이 여기에 해당합니다. "프런티어(frontier)"는 영어로 "최전선, 개척지"라는 뜻으로, 말 그대로 AI 능력의 최전선에 서 있는 모델입니다.
오픈 프런티어 모델 (Open Frontier Model)
프런티어급 성능을 가진 AI 모델을 누구나 무료로 사용하고 수정할 수 있도록 공개한 것입니다. 지금까지 최첨단 AI 모델은 대부분 OpenAI, Google, Anthropic 같은 회사가 비공개(클로즈드)로 운영했습니다. 그런데 Mistral, Meta(Llama) 등이 경쟁력 있는 모델을 오픈소스로 풀면서, "최고 성능 AI도 공개할 수 있다"는 흐름이 생겼습니다.
GTC 2일차에서 젠슨 황이 11명의 AI CEO를 무대에 올려 "오픈 프런티어 모델 패널"을 연 이유가 바로 이것입니다. 엔비디아는 오픈 진영이 강해질수록 GPU 수요가 늘어나기 때문에, 오픈 모델 생태계의 든든한 후원자 역할을 자처하고 있습니다.
Nemotron Coalition (네모트론 연합)
엔비디아와 8개 글로벌 AI 연구소가 힘을 합쳐 프런티어급 오픈 모델을 공동 개발하는 연합체입니다. 2일차 최대 뉴스 중 하나였습니다.
참여 기관은 Mistral AI, Perplexity, Cursor, LangChain, Black Forest Labs, Reflection AI, Sarvam, Thinking Machines Lab입니다. 첫 번째 프로젝트는 Mistral AI와 엔비디아가 공동 개발하는 기반 모델이며, 완성 후 오픈소스로 공개됩니다.
왜 중요한가? 지금까지 오픈 AI 모델은 각 회사가 독자적으로 만들었습니다. Nemotron Coalition은 여러 전문가가 연구, 데이터, 컴퓨팅 자원을 공유해서 함께 만드는 최초의 시도입니다. 마치 개별 자동차 회사들이 모여 공동으로 "표준 전기차 플랫폼"을 만드는 것과 비슷합니다.
6대 모델 패밀리
Nemotron Coalition과 함께 엔비디아가 공식 체계화한 6개 AI 모델 분야입니다.
| 모델 패밀리 | 전문 분야 | 쉬운 비유 |
|---|---|---|
| Nemotron | 언어 및 추론 | ChatGPT처럼 글을 읽고 쓰고 생각하는 AI |
| Cosmos | 월드 모델 및 비전 | 가상 세계를 만들고 "눈"으로 보는 AI |
| Isaac GR00T | 범용 로보틱스 | 로봇의 "두뇌" 역할을 하는 AI |
| Alpamayo | 자율주행 | 자동차가 스스로 생각하고 판단하는 AI |
| BioNeMo | 생물학 및 화학 | 신약 개발과 단백질 구조를 연구하는 AI |
| Earth-2 | 기상 및 기후 | 지구의 날씨와 기후를 예측하는 AI |
이 6개를 한마디로 요약하면, 엔비디아가 "모든 산업에 AI를 공급하겠다"고 선언한 것입니다. 대화(Nemotron)부터 자동차(Alpamayo), 로봇(GR00T), 날씨(Earth-2)까지 AI가 쓰이지 않는 곳이 없도록 하겠다는 전략입니다.
오케스트레이션 (Orchestration)
여러 AI 모델과 도구를 지휘자처럼 조율해서 하나의 복잡한 작업을 수행하도록 하는 것입니다.
오케스트라 비유가 딱 맞습니다. 바이올린(언어 AI), 트럼펫(이미지 AI), 드럼(검색 엔진)이 각각 따로 연주하면 소음이지만, 지휘자(오케스트레이션 시스템)가 조율하면 교향곡이 됩니다.
2일차 패널에서 Perplexity CEO가 "모델은 악기이고, 시스템이 지휘자"라고 말한 것이 바로 이 개념입니다. LangChain이 대표적인 오케스트레이션 프레임워크입니다.
플라이휠 (Flywheel)
한번 돌아가기 시작하면 자체적으로 가속이 붙는 선순환 구조를 말합니다. 원래는 물리학에서 회전 관성을 이용한 바퀴를 뜻하지만, 비즈니스에서는 "성장의 선순환"을 의미합니다.
CUDA의 플라이휠은 이렇게 작동합니다:
- NVIDIA가 CUDA를 무료로 제공합니다
- 개발자들이 CUDA로 AI 소프트웨어를 만듭니다
- CUDA 기반 소프트웨어가 늘어나면 NVIDIA GPU가 더 많이 팔립니다
- GPU 매출이 늘면 CUDA에 더 많이 투자합니다
- CUDA가 좋아지면 개발자가 더 모입니다
- 1번으로 돌아갑니다 (가속)
2일차 CUDA 20주년 패널에서 "600만 개발자의 플라이휠"이라는 표현이 나온 이유입니다. 20년간 돌아온 이 바퀴가 이제 너무 빨라서 경쟁사가 따라잡기 극히 어렵습니다.
락인 (Lock-in)
사용자가 특정 플랫폼이나 기술에 익숙해져서 다른 곳으로 옮기기 어려운 상태를 말합니다. "갇힘 효과"라고도 합니다.
아이폰 사용자가 앱, 사진, 연락처 등이 모두 애플 생태계에 묶여 있어서 안드로이드로 넘어가기 어려운 것이 대표적인 락인입니다. CUDA도 마찬가지입니다. 20년간 CUDA로 작성된 AI 코드가 너무 많아서, AMD나 Intel의 대체 플랫폼으로 전환하려면 엄청난 비용과 시간이 듭니다.
투자자 관점에서 락인은 해자(moat)와 같은 의미입니다. 고객이 쉽게 떠나지 못하므로 안정적인 매출이 보장됩니다.
풀스택 (Full Stack)
하드웨어부터 소프트웨어까지 모든 계층을 한 회사가 다루는 것입니다.
햄버거 가게에 비유하면, 밀가루 농장(칩 설계)부터 제빵(칩 제조 협력), 패티(시스템 조립), 소스(소프트웨어), 매장(클라우드 서비스)까지 전부 갖추는 것이 풀스택입니다.
엔비디아가 GPU 칩(하드웨어), CUDA(개발 도구), Nemotron(AI 모델), DGX Cloud(클라우드)까지 다루면서 "풀스택 AI 인프라 기업"으로 진화하고 있다는 것이 2일차의 핵심 메시지였습니다.
ROI (Return on Investment, 투자수익률)
투자한 돈 대비 얼마나 벌었는지를 나타내는 비율입니다. 100만 원을 투자해서 130만 원이 되었다면 ROI는 30%입니다.
2일차 패널 2부에서 AI의 ROI가 핵심 주제로 다뤄졌습니다. "AI를 도입하면 실제로 돈이 되는가?"라는 기업들의 근본적 질문에 답하는 자리였습니다. 결론은, AI를 단순히 "쓰는 것"이 아니라 비즈니스 프로세스에 깊이 통합할 때 ROI가 극대화된다는 것이었습니다.
DGX Cloud
NVIDIA의 클라우드 기반 AI 슈퍼컴퓨팅 서비스입니다. DGX 슈퍼컴퓨터를 직접 사지 않아도, 인터넷을 통해 빌려 쓸 수 있는 구독형 서비스입니다.
1일차 용어집에서 DGX Station(책상 위 슈퍼컴퓨터)은 다뤘는데, DGX Cloud는 그 반대 개념입니다. DGX Station이 자기 집에 서버를 두는 것이라면, DGX Cloud는 대형 데이터센터의 슈퍼컴퓨터를 원격으로 빌려 쓰는 것입니다. Nemotron Coalition의 공동 모델도 DGX Cloud에서 학습됩니다.
2. 메모리 / 반도체 — 2일차의 주인공들
HBM4E (High Bandwidth Memory 4th Gen Enhanced)
1일차에서 HBM4까지 다뤘습니다. HBM4E는 그 강화판입니다. 삼성전자가 GTC 2일차 전시장에서 세계 최초로 실물을 공개해 화제가 되었습니다.
| 항목 | HBM4 | HBM4E (삼성 신규 공개) |
|---|---|---|
| 핀당 속도 | 13 Gbps | 16 Gbps |
| 대역폭 | 3.3 TB/s | 4.0 TB/s |
| D램 공정 | – | 1나노미터 |
| 패키징 기술 | – | HCB (열저항 20%+ 감소) |
숫자만 보면 와닿지 않을 수 있으니 비유를 하나 들겠습니다. HBM4가 편도 4차선 고속도로라면, HBM4E는 편도 5차선으로 확장하면서 제한속도도 올린 고속도로입니다. 같은 시간에 더 많은 차(데이터)가 더 빠르게 달릴 수 있습니다.
핀당 속도 (Gbps per pin)
메모리 칩이 외부와 데이터를 주고받는 연결핀 하나가 1초에 전송하는 데이터량입니다. Gbps는 "초당 기가비트"를 의미합니다.
왜 "핀당"이 중요할까요? HBM은 수천 개의 핀으로 GPU와 연결됩니다. 핀 하나하나의 속도가 빨라지면, 전체 대역폭이 그만큼 늘어납니다. HBM4의 핀당 13Gbps가 HBM4E에서 16Gbps로 올라간 것은, 고속도로의 차선 폭은 그대로인데 각 차선의 제한속도를 130km/h에서 160km/h로 올린 것과 같습니다.
베이스 다이 (Base Die)
HBM 메모리 스택의 맨 아래에 깔리는 로직(논리 연산) 칩입니다. 1일차에서 HBM은 메모리 칩을 수직으로 쌓는다고 설명했는데, 이 탑의 "1층(기초)"에 해당하는 것이 베이스 다이입니다.
아파트에 비유하면 베이스 다이는 1층 로비와 관리사무소입니다. 위층(메모리 층)의 데이터를 정리하고, 외부(GPU)와의 소통을 총괄합니다. 삼성의 HBM4E 베이스 다이는 파운드리 4나노미터 공정으로 만들어, 기존보다 훨씬 정교한 데이터 제어가 가능합니다.
HCB (Hybrid Copper Bonding, 하이브리드 구리 접합)
메모리 칩을 수직으로 쌓을 때, 층과 층 사이를 구리(copper)로 직접 접합하는 패키징 기술입니다.
기존 방식(TCB, 열압착 접합)은 땜납(솔더)으로 칩을 붙였습니다. 접착제로 블록을 쌓는 것과 비슷합니다. HCB는 블록 자체를 용접해서 붙이는 것에 가깝습니다. 접합 면이 더 촘촘하고 단단해서, 열 전도가 20% 이상 개선되고 더 많은 층(16층 이상)을 쌓을 수 있습니다. AI 칩이 점점 뜨거워지는 시대에, 열을 잘 빼주는 HCB는 필수 기술이 되고 있습니다.
웨이퍼 (Wafer)
반도체 칩을 만드는 원형 실리콘 판입니다. 피자 도우에 비유하면 이해하기 쉽습니다. 거대한 실리콘 원판(웨이퍼) 위에 수백 개의 칩 회로를 동시에 새기고, 완성되면 하나씩 잘라내 개별 칩이 됩니다.
삼성전자가 GTC에서 "HBM4E 코어 다이 웨이퍼"를 세계 최초로 공개했다는 것은, 칩이 새겨진 원판 실물을 보여줬다는 의미입니다. 웨이퍼 단계에서 공개한다는 것은 개발이 상당히 진전되었음을 과시하는 것입니다.
SOCAMM2 (Small Outline Compression Attached Memory Module 2)
NVIDIA가 설계한 소형 DRAM 모듈 규격입니다. Vera CPU에 장착되는 메모리 형태입니다.
일반 PC의 메모리(DDR)가 직사각형 막대 형태라면, SOCAMM2는 훨씬 작고 납작한 형태로 AI 서버에 최적화되어 있습니다. 기존 서버용 메모리(RDIMM) 대비 대역폭은 2배 이상이면서, 전력 소비는 55% 적습니다. 최대 256GB 용량에 9,600MT/s 전송 속도를 지원합니다.
삼성과 SK하이닉스 모두 GTC 전시장에서 자사 SOCAMM2 제품을 시연했으며, Vera Rubin 세대 AI 서버의 핵심 부품이 될 전망입니다.
3. 로보틱스 / Physical AI 모델 — 현실 세계로 나가는 AI
GR00T N1.7 / GR00T N2
1일차 용어집에서 GR00T(범용 휴머노이드 로봇 AI 모델)을 다뤘습니다. 2일차에는 구체적인 버전이 공개되었습니다.
- GR00T N1.7: 현재 얼리 액세스(시험 제공) 중인 버전. 상용 라이선스로 실제 로봇에 탑재 가능
- GR00T N2: 2026년 말 출시 예정인 차세대 버전. "DreamZero" 연구를 기반으로 한 새로운 "월드 액션 모델" 아키텍처 적용
GR00T N2의 핵심 성과는, 로봇이 처음 보는 환경에서 새로운 작업을 성공하는 비율이 기존 최고 모델 대비 2배 이상 높다는 점입니다. RoboArena와 MolmoSpaces 벤치마크에서 1위를 차지했습니다.
Cosmos 3
1일차에서 Cosmos(합성 세계 생성 AI)를 간략히 다뤘습니다. 2일차에 공개된 Cosmos 3는 세 가지 능력을 하나로 합친 업그레이드 버전입니다.
- 합성 세계 생성: 가상 환경을 만들어 로봇 학습 데이터를 생성
- 비전 추론: 영상을 보고 상황을 이해하고 판단
- 행동 시뮬레이션: 로봇이 어떻게 움직여야 하는지 미리 시뮬레이션
이전까지 이 세 기능은 별도의 시스템이었는데, Cosmos 3에서 하나로 통합되었습니다. 영화 촬영에 비유하면, 세트장 제작(합성 세계), 카메라 촬영(비전), 배우 연기 지도(행동 시뮬레이션)를 한 사람이 다 하는 것입니다.
Newton 1.0 (물리 엔진)
로봇의 몸이 현실 세계의 물리 법칙에 따라 어떻게 움직이는지를 시뮬레이션하는 오픈소스 물리 엔진입니다. Google DeepMind, Disney Research와 공동 개발했습니다.
이름은 만유인력을 발견한 아이작 뉴턴에서 따왔습니다. 로봇이 물건을 집을 때의 무게, 마찰, 충돌 같은 물리 현상을 가상으로 재현합니다. 엔비디아의 로봇 AI 전략을 이렇게 정리할 수 있습니다:
- GR00T = 로봇의 "두뇌" (판단과 계획)
- Newton = 로봇의 "몸" (물리적 움직임 시뮬레이션)
- Omniverse = 로봇의 "훈련장" (가상 환경)
Newton 1.0의 가장 주목할 기능은 손재주(dexterous manipulation) 지원입니다. 로봇 손가락이 케이블을 잡거나 작은 부품을 조립하는 복잡한 동작까지 시뮬레이션할 수 있습니다.
RoboArena / MolmoSpaces
로봇 AI 모델의 성능을 객관적으로 평가하는 벤치마크(성적 측정 시험)입니다. AI 분야에서의 수능 시험이라고 생각하면 됩니다.
- RoboArena: 다양한 로봇 작업 환경에서 AI 모델의 범용성을 평가
- MolmoSpaces: 공간 이해력과 작업 수행 능력을 측정
GR00T N2가 이 두 벤치마크에서 모두 1위를 차지했다는 것은, 현존하는 로봇 AI 모델 중 가장 뛰어난 범용 성능을 가졌다는 공식적인 증명입니다.
듀얼 암 AI 매니퓰레이터
두 개의 로봇 팔을 가진 AI 제어 조작 장치입니다. 사람이 양손으로 작업하듯, 두 팔이 협조해서 복잡한 작업을 수행합니다.
2일차에서 가장 인상적인 실례는 Foxconn이 엔비디아 Blackwell GPU 생산라인에 듀얼 암 AI 매니퓰레이터를 실전 배치한 것입니다. AI 칩을 만드는 공장에서 AI 로봇이 일하는, "AI가 AI를 만드는" 장면이 현실이 된 것입니다.
4. 자율주행 / 기후 과학 — AI의 새로운 전장
Alpamayo (알파마요)
엔비디아의 자율주행 전용 AI 모델 패밀리입니다. 6대 모델 패밀리 중 하나이며, 이름은 페루 안데스 산맥의 아름다운 봉우리 알파마요에서 따왔습니다.
Alpamayo의 가장 큰 특징은 "생각하는 자율주행"입니다. 기존 자율주행 AI는 "이런 상황에서는 이렇게 하라"고 미리 정해둔 규칙에 따라 움직였습니다. Alpamayo는 사람처럼 단계별로 추론(chain-of-thought reasoning)하면서 판단합니다.
예를 들어, 공사 구간에서 차선이 갑자기 사라진 상황:
- 기존 AI: (규칙에 없음) → 혼란
- Alpamayo: "차선 표시가 사라졌다 → 앞차를 따라가자 → 공사 구간이니 속도를 줄이자 → 안전거리를 더 확보하자" (단계별 추론)
Alpamayo 1은 100억 개 파라미터의 VLA(Vision Language Action, 비전-언어-행동) 모델로, Uber, JLR(재규어 랜드로버), Lucid 등이 이미 채택하여 레벨 4 자율주행 개발에 활용하고 있습니다.
VLA (Vision Language Action, 비전-언어-행동 모델)
보고(Vision), 이해하고(Language), 행동하는(Action) 세 가지 능력을 통합한 AI 모델 구조입니다. 기존 자율주행 AI는 "보는 것"과 "판단하는 것"과 "움직이는 것"이 별개의 시스템이었습니다. VLA는 이 세 가지를 하나의 모델로 통합합니다.
사람에 비유하면, 눈(Vision)으로 보고, 머리(Language)로 판단하고, 손발(Action)로 행동하는 것이 하나의 신경계에서 자연스럽게 이어지는 것과 같습니다.
Earth-2 (어스 투)
엔비디아의 기후 및 기상 AI 디지털 트윈 플랫폼입니다. 지구 전체의 날씨와 기후를 AI로 시뮬레이션합니다.
놀라운 성능은 이렇습니다:
- 기존 슈퍼컴퓨터 기상 예측 대비 1,000배 빠르고, 3,000배 에너지 효율적
- 2km 해상도로 전 세계 기상 패턴을 시뮬레이션 (동네 단위 날씨 예측 가능)
- 페타바이트(100만 기가바이트) 규모의 기후 데이터를 3,000배 압축 가능
"디지털 트윈"이라는 이름 그대로, 가상 세계에 "지구의 쌍둥이"를 만들어 기후 변화, 태풍 경로, 홍수 위험 등을 미리 예측하는 것이 목표입니다. AI가 단순히 대화하는 것을 넘어, 지구 자체를 이해하려는 시도입니다.
5. 투자 / 비즈니스 — 돈의 흐름을 읽는 용어
ADR (American Depositary Receipt, 미국 예탁증서)
해외 기업의 주식을 미국 시장에서 달러로 거래할 수 있게 만든 증서입니다. 원리는 이렇습니다:
- 한국 기업(예: SK하이닉스)이 자사 주식을 미국 예탁은행(예: JP모건)에 맡깁니다
- 예탁은행이 그 주식을 기반으로 "미국에서 거래 가능한 증서(ADR)"를 발행합니다
- 미국 투자자들은 NYSE나 나스닥에서 이 ADR을 일반 미국 주식처럼 사고팔 수 있습니다
GTC 2일차에서 최태원 SK그룹 회장이 SK하이닉스의 ADR 상장을 검토 중이라고 밝혀 화제가 되었습니다. 현재 SK하이닉스는 한국에서만 거래되는데, ADR을 통해 미국 시장에 상장하면 미국 투자자들의 접근성이 높아지고 "AI 프리미엄"을 제대로 인정받을 수 있습니다.
SK하이닉스의 현재 주가수익비율(PER)은 약 11배인 반면, 미국의 경쟁사 Micron은 약 29배입니다. 같은 실적이라도 미국 시장에서 거래되면 훨씬 높은 가치를 인정받을 수 있습니다. 최태원 회장은 자사주 약 1,740만 주(지분의 약 2.4%)를 활용한 ADR 발행을 검토 중입니다.
NPN (NVIDIA Partner Network)
엔비디아의 공식 파트너 네트워크입니다. AI 솔루션을 기업에 구현하는 IT 서비스 회사, 시스템 통합사(SI), 리셀러 등이 참여합니다.
2일차 오전 10시에 NPN 시상식이 열렸고, 젠슨 황이 직접 참석해 고등교육, 정부, 헬스케어, 금융, 리테일 등 다양한 산업에서 AI를 "시험 단계에서 실제 운영"으로 전환한 파트너들을 축하했습니다. 엔비디아가 단순한 칩 판매를 넘어, 파트너 생태계를 통한 AI 보급에 투자하고 있음을 보여주는 장면입니다.
NVentures
엔비디아의 벤처 투자(CVC, Corporate Venture Capital) 부문입니다. 유망 AI 스타트업에 직접 투자합니다.
2일차 오후 2시부터 열린 스타트업/VC 세션에서 NVentures 팀이 주요 벤처캐피탈들과 "AI의 다음 단계"에 대한 투자 트렌드를 논의했습니다. 엔비디아는 단순히 GPU를 파는 것에 그치지 않고, 유망 스타트업에 투자하여 GPU 수요 자체를 키우는 전략을 동시에 구사하고 있습니다.
Inception 프로그램
엔비디아가 운영하는 AI 스타트업 지원 프로그램입니다. 현재 4만 개 이상의 스타트업이 참여하고 있습니다.
가입하면 최신 개발 도구, NVIDIA 하드웨어/소프트웨어 할인, 파트너 혜택, 글로벌 투자자 네트워크 접근 등을 무료로 받을 수 있습니다. DGX Cloud Innovation Lab은 Inception 회원 대상으로 60일간 GPU를 무상 제공하는 가속 프로그램입니다.
투자자 관점에서 Inception의 의미는 명확합니다. 4만 개의 스타트업이 엔비디아 플랫폼 위에서 성장하면, 이 기업들이 커질수록 GPU 수요도 함께 커집니다. 또 하나의 플라이휠입니다.
2일차 핵심 숫자 한눈에 보기
| 숫자 | 의미 |
|---|---|
| 11명 | 오픈 모델 패널에 참가한 AI CEO 수 (GTC 역대 최다) |
| 8개 | Nemotron Coalition 참여 AI 연구소 수 |
| 6개 | 엔비디아 프런티어 모델 패밀리 수 (Nemotron, Cosmos, GR00T, Alpamayo, BioNeMo, Earth-2) |
| 600만 명 | CUDA 개발자 수 (20주년 기준) |
| 20년 | CUDA 출시 이후 경과 기간 (2006년 첫 출시) |
| 16 Gbps | 삼성 HBM4E 핀당 속도 (HBM4 대비 23% 향상) |
| 4.0 TB/s | 삼성 HBM4E 대역폭 (1초에 고화질 영화 800편 전송) |
| 2배 | GR00T N2의 새 환경 작업 성공률 (기존 최고 모델 대비) |
| 4만+ | NVIDIA Inception 프로그램 참여 스타트업 수 |
| 100억 개 | Alpamayo 1 모델의 파라미터 수 |
이 용어 사전은 GTC 2026 2일차 분석과 함께 작성되었습니다.
1일차 용어집: 엔비디아 GTC 2026 키노트 용어 총정리 — GPU, HBM, CUDA 등 기본 용어
2일차 본문: 엔비디아 GTC 2026 2일차 총정리 — 오픈 모델 패널, 삼성 HBM4E, 한국 증시 반응
본 글은 GTC 2026 2일차에서 사용된 기술 용어를 비전문가가 이해할 수 있도록 풀어 설명한 교육 목적의 콘텐츠입니다. 특정 종목의 매수/매도를 추천하지 않으며, 투자 판단은 본인의 책임 하에 이루어져야 합니다. 기술 사양과 수치는 NVIDIA GTC 2026 공식 발표 및 참여 기업 발표(2026년 3월 18일) 기준이며, 향후 변경될 수 있습니다.
참고 자료