COMPUTEX 2022: NVIDIA mang đến nhiều công nghệ và giải pháp thú vị
(ĐTTD) Tại COMPUTEX 2022, gã khổng lồ GPU NVIDIA không chỉ có những tin tức tuyệt vời liên quan đến người tiêu dùng cơ bản, hãng còn chuẩn bị một số bản cập nhật và lộ trình cho thị trường để giúp các đối tác và khách hàng chuyển đổi sang thế hệ hiệu suất cao sắp tới tin học.
Trong đó, đáng chú ý là hệ thống đầu tiên được cung cấp bởi NVIDIA Grace CPU Superchip và Grace Hopper Superchip nhắm mục tiêu đến các cặp song sinh kỹ thuật số hiệu suất cao, đồ họa đám mây, trò chơi trên đám mây và điện toán nói chung.
Được biết, sản phẩm dự kiến sẽ ra mắt vào quý I năm sau, với hàng tá lựa chọn được cung cấp bởi ASUS, Foxconn Industrial Internet, GIGABYTE, QCT, Supermicro và Wiwynn…
Theo NVIDIA thì Grace CPU Superchip có thiết kế chip CPU kép, được kết nối chặt chẽ thông qua kết nối NVLink-C2C chứa tối đa 144 lõi Arm V9 hiệu suất cao với phần mở rộng vectơ có thể mở rộng cùng hệ-thống-con có bộ nhớ 1TBps khổng lồ. Những kết quả cho phép cấu hình như vậy vốn chưa từng thấy trước đây như băng thông bộ nhớ gấp đôi và hiệu quả năng lượng sẽ phá vỡ các biểu đồ hiệu suất cùng một lúc.
Mặt khác, Grace Hopper Superchip sẽ đóng gói GPU NVIDIA Hopper với một CPU Grace duy nhất được kết nối với NVLink-C2C, do đó có tên là “Grace” “Hopper” cũng được ra đời, việc này giúp xử lý HPC và các ứng dụng liên quan đến AI ở quy mô lớn tốt hơn. Theo nhà sản xuất thì nó cho phép bộ đôi này có thể truyền dữ liệu nhanh hơn 15 lần so với ghép nối CPU + GPU Hopper truyền thống.
Ở danh mục thiết kế máy chủ Grace CPU Superchip và Grace Hopper Superchip sẽ mang đến 4 lựa chọn cấu hình, là một, hai và bốn chiều trên 4 thiết kế dành riêng biệt cho từng khối lượng công việc, có thể kể đến như:
Hệ thống NVIDIA HGX Grace Hopper chạy Grace Hopper Superchip + NVIDIA Bluefield-3 DPU
Hệ thống Grace NVIDIA HGX chạy Grace CPU Superchip + Bluefield-3 DPU
Hệ thống NVIDIA OVX chạy Grace CPU Superchip + Bluefield-3 DPU + GPU NVIDIA
Hệ thống NVIDIA CGX chạy Grace CPU Superchip + Bluefield-3 DPU + GPU NVIDIA A16
Một bộ hỗ trợ phần mềm nội bộ đầy đủ bao gồm Omniverse, RTX, NVIDIA HPC và NVIDIA AI cũng sẽ được tối ưu hóa. Và các dịch vụ của bên thứ 3 sẽ có nhiều cơ hội nhận được chứng nhận Hệ thống của NVIDIA nhờ vào việc mở rộng chương trình.
Ví dụ như điện toán GPU quy mô lớn và bảo vệ môi trường với NVIDIA A100 làm mát bằng chất lỏng. Để đáp ứng nhu cầu về điện toán xanh hướng tới các tổ chức quy mô toàn cầu , các trung tâm dữ liệu lưu trữ và xử lý dữ liệu thực tế là xương sống của Internet hiện đại, tuy nhiên việc vận hành các cơ sở hạ tầng ngoại vi này không phải là nhiệm vụ dễ dàng. Chính vì thế, NVIDIA đang thực hiện một bước tiến mới trong việc cung cấp cho các máy chủ chính thống lựa chọn sử dụng GPU A100 PCIe làm mát bằng chất lỏng đầu tiên được áp dụng là Equinix, một nhà cung cấp dịch vụ toàn cầu có trụ sở tại Hoa Kỳ, đã ra mắt một cơ sở chuyên dụng để theo đuổi những tiến bộ về hiệu quả năng lượng.
Theo đó, ngay cả khi so sánh thiết lập làm mát bằng không khí thông thường, một chuyển đổi đơn giản từ máy chủ chỉ sử dụng CPU sang hệ thống tăng tốc GPU trong trường hợp AI và HPC trên toàn thế giới có thể tiết kiệm năng lượng khổng lồ 11 nghìn tỷ watt mỗi năm. Tương đương điện năng của khoảng 1,5 triệu hộ gia đình tiêu thụ điện trong 1 năm.
Điểm đáng chú ý là GPU A100 PCIe làm mát bằng chất lỏng khi tính toán mức tiêu thụ năng lượng thấp hơn 30%. Bản chất của phương pháp làm mát cho phép GPU chỉ chiếm 1 khe PCIe trong khi làm mát bằng không khí tiêu chuẩn mô hình sử dụng 2 khe gắn. Vì vậy, về cơ bản bạn có thể đóng gói gấp đôi sức mạnh tính toán vào cùng một không gian.
Hiện tại, Equinix đang đủ điều kiện và hoàn thiện GPU làm mát bằng chất lỏng A100 80GB PCIe này để triển khai trong khi tính khả dụng chung dự kiến bắt đầu từ Mùa hè này.
Thứ 2 là máy chủ và thiết bị Jetson AGX Orin. NVIDIA hiện đang hợp tác với hơn 30 đối tác để sử dụng hệ thống sản xuất Jetson AGX Orin mới, đưa Team Green đang làm lên một tầm cao mới.
Theo đó, NVIDIA Jetson về cơ bản là gói Hệ thống trên mô-đun (SoM) kết hợp mọi thứ mà ứng dụng AI cần bao gồm GPU, bộ nhớ, kết nối, quản lý nguồn, giao diện,… thành một hệ số dạng duy nhất và dễ truy cập.
Bên cạnh những dịch vụ mới nhất, bộ công cụ dành cho nhà phát triển Jetson AGX Orin, sẽ đến tay các nhà phát triển vào tháng 3 năm tới. được biết, đã có 1 triệu nhà phát triển và hơn 6.000 công ty đã xây dựng các sản phẩm thương mại cho nền tảng Jetson.
Là GPU dựa trên kiến thúc Ampere, CPU Arm Cortex-A78AE, được kết nối bằng giao diện tốc độ cao và băng thông bộ nhớ nhanh hơn đồng thời được tăng cường bởi hỗ trợ cảm biến đa phương thức có khả năng cung cấp nhiều đường ống ứng dụng AI đồng thời, Jetson AGX Orin tự tin là ông hoàng của thị trường AI tiên tiến.
NVIDIA cho biết thời gian cho các mô-đun sản xuất Jetson AGX Orin là vào tháng 7 tới, trong khi các mô-đun Orin NX sẽ là tháng 9.
Theo Tạp chí Điện tử
Tối thiểu 10 chữ Tiếng việt có dấu Không chứa liên kết
Gửi bình luận