Baron Darkness
Gefreiter
NVIDIA RTX 6090 "AI Edition" ra mắt: Quái vật 48GB VRAM tích hợp HBM3e - "Lời tuyên chiến" với các dịch vụ Cloud GPU
Rạng sáng nay (giờ Việt Nam), trong bài keynote bất ngờ tại sự kiện "AI Hardware Summit 2025", CEO Jensen Huang đã vén màn một con quái vật phần cứng mới không nằm trong lộ trình rò rỉ trước đó: NVIDIA GeForce RTX 6090 "AI Edition". Lần đầu tiên trong lịch sử dòng GeForce, NVIDIA phá vỡ quy tắc "24GB VRAM", trang bị tới 48GB bộ nhớ và công nghệ HBM3e đắt đỏ vốn chỉ dành cho dòng chip máy chủ H100. Thông điệp rất rõ ràng: "Tại sao phải thuê Cloud khi bạn có thể chạy mô hình AI ngay tại nhà?".
RTX 6090 bản thường (ra mắt tháng 9/2025) sử dụng GDDR7, nhưng phiên bản "AI Edition" này là một kiến trúc hoàn toàn khác biệt dựa trên nhân Blackwell Ultra:
Trước đây, để chạy mượt mà các mô hình ngôn ngữ lớn (LLM) như Llama-3-70B hay Falcon-180B với độ chính xác cao (FP16 hoặc INT8), người dùng buộc phải mua 2 chiếc RTX 3090/4090 để chạy song song (NVLink) vì giới hạn 24GB VRAM.
Với RTX 6090 AI Edition:
Sự ra đời của RTX 6090 AI Edition là tin dữ cho các nền tảng như RunPod, Lambda Labs hay Colab Pro.
Với mức giá công bố là 2.999 USD (khoảng 75 triệu VNĐ), nó đắt hơn card game thông thường nhưng lại rẻ hơn rất nhiều so với việc thuê Cloud GPU trong dài hạn.
Một lập trình viên AI chia sẻ trên Reddit: "Nếu tôi bỏ ra 3000 đô mua card này, tôi có thể chạy AI 24/7 trong 3 năm mà không tốn thêm xu nào. Trong khi thuê A100 trên Cloud với giá 2$/giờ, tôi sẽ đốt hết số tiền đó chỉ trong 2 tháng."
Lời kết:
NVIDIA đang muốn phổ cập hóa AI. Bằng việc đưa phần cứng cấp Enterprise xuống dòng Consumer, họ đang trao quyền lực của các siêu máy tính vào tay từng cá nhân. Cuộc đua AI năm 2026 sẽ không chỉ diễn ra ở các Data Center khổng lồ, mà ngay tại góc bàn làm việc của mỗi chúng ta.
Rạng sáng nay (giờ Việt Nam), trong bài keynote bất ngờ tại sự kiện "AI Hardware Summit 2025", CEO Jensen Huang đã vén màn một con quái vật phần cứng mới không nằm trong lộ trình rò rỉ trước đó: NVIDIA GeForce RTX 6090 "AI Edition". Lần đầu tiên trong lịch sử dòng GeForce, NVIDIA phá vỡ quy tắc "24GB VRAM", trang bị tới 48GB bộ nhớ và công nghệ HBM3e đắt đỏ vốn chỉ dành cho dòng chip máy chủ H100. Thông điệp rất rõ ràng: "Tại sao phải thuê Cloud khi bạn có thể chạy mô hình AI ngay tại nhà?".
1. Thông số kỹ thuật: Sự kết hợp điên rồ giữa GDDR7 và HBM3e
RTX 6090 bản thường (ra mắt tháng 9/2025) sử dụng GDDR7, nhưng phiên bản "AI Edition" này là một kiến trúc hoàn toàn khác biệt dựa trên nhân Blackwell Ultra:
- VRAM Kép (Hybrid Memory): Sử dụng tổng cộng 48GB bộ nhớ.
- 32GB GDDR7: Cho tác vụ đồ họa, render 3D và lưu trữ texture game.
- 16GB HBM3e (High Bandwidth Memory): Đóng vai trò là bộ nhớ đệm tốc độ cực cao (Cache Tier) dành riêng cho Tensor Cores xử lý ma trận AI. - Băng thông: Tổng băng thông bộ nhớ đạt mức không tưởng 2.8 TB/s, nhanh gấp 3 lần so với RTX 4090.
- Tiêu thụ điện: TDP lên tới 600W, yêu cầu người dùng phải trang bị bộ nguồn (PSU) chuẩn ATX 4.1 mới nhất với 2 đầu cấp nguồn 12V-2x6.
2. Giấc mơ của dân chạy Local LLM thành hiện thực
Trước đây, để chạy mượt mà các mô hình ngôn ngữ lớn (LLM) như Llama-3-70B hay Falcon-180B với độ chính xác cao (FP16 hoặc INT8), người dùng buộc phải mua 2 chiếc RTX 3090/4090 để chạy song song (NVLink) vì giới hạn 24GB VRAM.
Với RTX 6090 AI Edition:
- Chạy Llama-4-70B (Quantized) trên 1 card: Không cần chia tách model (model splitting), giảm độ trễ (latency) xuống gần như bằng 0.
- Tốc độ: Khả năng sinh từ (Tokens per second) đạt 150 t/s, nhanh hơn cả trải nghiệm gõ phím của ChatGPT Plus.
- Fine-tuning: Đủ dung lượng để tinh chỉnh (LoRA Fine-tune) các model tầm trung ngay trên máy cá nhân mà không lo lỗi "OOM" (Out of Memory).
3. Cú tát vào các Startup cho thuê GPU
Sự ra đời của RTX 6090 AI Edition là tin dữ cho các nền tảng như RunPod, Lambda Labs hay Colab Pro.
Với mức giá công bố là 2.999 USD (khoảng 75 triệu VNĐ), nó đắt hơn card game thông thường nhưng lại rẻ hơn rất nhiều so với việc thuê Cloud GPU trong dài hạn.
Một lập trình viên AI chia sẻ trên Reddit: "Nếu tôi bỏ ra 3000 đô mua card này, tôi có thể chạy AI 24/7 trong 3 năm mà không tốn thêm xu nào. Trong khi thuê A100 trên Cloud với giá 2$/giờ, tôi sẽ đốt hết số tiền đó chỉ trong 2 tháng."
4. Giá bán và Ngày lên kệ
- Mở đặt trước (Pre-order): Ngay tối nay, 20:00 ngày 19/12/2025 trên trang chủ NVIDIA.
- Giao hàng: Dự kiến từ 10/01/2026 (Ngay sau triển lãm CES 2026).
- Cảnh báo: NVIDIA cho biết số lượng phiên bản "AI Edition" rất hạn chế. Các chuyên gia dự đoán tình trạng "cháy hàng" sẽ diễn ra trong vòng 5 phút đầu tiên và mức giá chợ đen có thể bị đội lên tới 5.000 USD.
Lời kết:
NVIDIA đang muốn phổ cập hóa AI. Bằng việc đưa phần cứng cấp Enterprise xuống dòng Consumer, họ đang trao quyền lực của các siêu máy tính vào tay từng cá nhân. Cuộc đua AI năm 2026 sẽ không chỉ diễn ra ở các Data Center khổng lồ, mà ngay tại góc bàn làm việc của mỗi chúng ta.
Bài viết chỉ thể hiện quan điểm cá nhân của tác giả và mang tính tham khảo.
Chúng tôi không chịu trách nhiệm cho bất kỳ rủi ro nào phát sinh từ việc sử dụng thông tin trong bài viết.

![[VNXF] Theme Digital – Sự lựa chọn hoàn hảo cho diễn đàn công nghệ hiện đại](https://cdn.vnxf.vn/data/assets/logo_default/theme-digital.png)
![[VNXF 2x] Best Statistics Pro – Thống kê nâng cao, tối ưu hiệu năng cho XenForo 1.1](https://cdn.vnxf.vn/data/assets/logo_default/beststatpro2x.png)


