CES 2026 젠슨 황 연설, 핵심만 빠르게
“차세대 AI 컴퓨팅 + 긴 문맥 추론 + 피지컬 AI(로봇·자율주행)” 흐름을 한 번에 정리!
이번 연설, 무엇을 말했나?
📌 “성능”보다 “토큰당 비용·전력·인프라 효율”을 전면에 둔 발표
AI는 이제 ‘모델’만의 경쟁이 아니라
컴퓨팅(칩) + 네트워킹 + 스토리지 + 소프트웨어
를 묶는 플랫폼 싸움으로 이동 중입니다.
CES 2026 젠슨 황 연설: 대략 핵심 요약
정리 포인트는 4가지입니다. (1) 차세대 AI 컴퓨팅 플랫폼 (2) 긴 문맥 추론을 위한 스토리지 (3) 오픈 모델 생태계 (4) 피지컬 AI(로봇·자율주행)의 상용화 가속
1) 차세대 플랫폼 “Rubin(루빈)” 중심: 추론 비용을 더 낮추는 방향
• “AI를 더 싸고 빠르게 제공”하는 데 초점(토큰당 비용/효율 강조)
• GPU/CPU/인터커넥트/네트워크까지 ‘한 덩어리’로 최적화하는 메시지
• 결론: 모델 성능만이 아니라, 인프라 효율이 곧 경쟁력
2) “긴 문맥 추론”을 위한 스토리지 레이어: 대화가 길수록 체감 차이
• 긴 질문/긴 대화/긴 문서에서 “기억(KV cache)”을 더 잘 다루겠다는 방향
• 결국 목표는 응답 속도↑ / 비용↓ (특히 추론 서비스에서 중요)
3) 오픈 모델 전략: 의료·기후·로봇·자율주행까지 “도메인별 패키지”
• 단일 모델 자랑이 아니라, 산업별로 바로 쓸 수 있는 ‘모델 패밀리’ 제시
• 개발자/기업이 쉽게 얹어서 만들게 하고, 생태계를 넓히는 방식
4) 피지컬 AI(Physical AI): 로봇·자율주행이 “다음 메인 무대”
• “현실 세계를 이해하고 행동하는 AI”를 전면에 배치
• 자율주행은 단순 데모가 아니라 시뮬레이션 + 학습 + 검증까지 묶어
상용화를 밀어붙이는 흐름
✅ 한 줄 결론
CES 2026 연설은 “차세대 AI 인프라(루빈)로 추론 비용을 낮추고, 긴 문맥/오픈 모델/피지컬 AI로 시장을 산업 전반으로 확장하겠다”는 방향 제시로 보면 됩니다.
