Banner chạy dọc bên trái
Banner chạy dọc bên phải

Card màn hình NVIDIA RTX 4000 SFF Ada Generation (20GB GDDR6) (Leadtek)

Thông số sản phẩm

  • - Kiến trúc GPU Ada Lovelace
    6.144 nhân CUDA
    192 lõi Tenor
    48 lõi RT
    Bộ nhớ GDDR6 20GB với ECC
    Băng thông bộ nhớ: 320 GB/giây
    Công suất tiêu thụ tối đa: 70W
    Bus đồ họa: PCI-E 4.0 x16
    Đầu nối màn hình: mDP 1.4a (4)

Giá khuyến mãi:

45.289.000đ

49.999.000đ

Tiết kiệm 4.710.000đ

Giá đã bao gồm VAT

Bảo hành: 36 Tháng

Bài viết liên quan

RTX 4000 ADA và những câu hỏi thường gặp

"SFF" trên Card màn hình NVIDIA RTX 4000 SFF Ada Generation có nghĩa là gì và nó khác gì bản RTX 4000 thông thường?

SFF viết tắt của Small Form Factor. Bản SFF có kích thước nhỏ gọn (Low Profile) và tiêu thụ điện cực thấp, phù hợp cho máy tính mini. Bản RTX 4000 thông thường có kích thước lớn hơn, tiêu thụ điện cao hơn và hiệu năng thuần túy mạnh hơn một chút nhờ xung nhịp cao hơn.

Card màn hình NVIDIA RTX 4000 SFF Ada Generation có hỗ trợ công nghệ DLSS 3 không?

Có. Vì thuộc kiến trúc Ada Lovelace, RTX 4000 SFF hỗ trợ đầy đủ các tính năng mới nhất của NVIDIA như DLSS 3 (Frame Generation), giúp tăng tốc độ xử lý hình ảnh đáng kể thông qua trí tuệ nhân tạo.

Cổng kết nối mDP (Mini DisplayPort) trên Card màn hình NVIDIA RTX 4000 SFF Ada Generation có dùng được với màn hình thường không?

Được. Mặc dù card sử dụng cổng Mini DisplayPort để tiết kiệm không gian, nhưng bạn hoàn toàn có thể sử dụng các đầu chuyển từ Mini DisplayPort sang DisplayPort hoặc HDMI để kết nối với các màn hình thông dụng hiện nay.

Card màn hình NVIDIA RTX 4000 SFF Ada Generation có hỗ trợ xuất hình 4K hoặc 8K ở tần số quét cao không?

Có, RTX 4000 SFF Ada hỗ trợ xuất tối đa 4 màn hình 4K ở 120Hz hoặc 2 màn hình 8K ở 60Hz thông qua các cổng mDP 1.4a. Đây là một thông số cực kỳ ấn tượng giúp các chuyên gia thiết kế tận dụng tối đa độ sắc nét và mượt mà của các dòng màn hình đồ họa cao cấp hiện nay.

Có thể sử dụng Card màn hình NVIDIA RTX 4000 SFF Ada Generation để chạy các mô hình ngôn ngữ lớn (LLM) không?

Hoàn toàn có thể. Với 20GB VRAM và nhân Tensor thế hệ thứ 4, đây là một trong những lựa chọn tốt nhất hiện nay để chạy Inference (suy luận) các mô hình AI hoặc LLM như Llama 3 trong các máy trạm nhỏ gọn.