Chứng kiến Nvidia gia nhập 'CLB nghìn tỷ USD' nhờ bán chip AI, AMD ra thiết bị mạnh hơn để đối đầu
MI300X là bộ xử lý cho trung tâm dữ liệu dùng để huấn luyện AI của AMD, hứa hẹn có thể cạnh tranh với các mẫu chip mới nhất từ Nvidia.
- 29-05-2023Triển vọng thử nghiệm cấy chip của công ty Neuralink
- 20-05-2023Meta nghiên cứu chip dữ liệu dành riêng cho AI
- 23-04-2023Tốn hơn 15 tỷ đồng mỗi ngày để vận hành ChatGPT, Microsoft bí mật tự làm chip AI để giảm chi phí
AMD sẽ chính thức tung ra MI300X - mẫu GPU tiên tiên nhất dành cho các tác vụ AI của hãng này vào cuối năm nay, theo tuyên bố vừa được đưa ra hôm nay. Theo đó, đây được coi là động thái đáp trả của Đội Đỏ (biệt danh của AMD) đối với đối thủ khác trong mảng GPU là Nvidia, vốn đang thống trị thị trường chip AI với 80%, theo các nhà phân tích.
Kể từ khi làn sóng AI bùng nổ, GPU chuyên dụng là những thiết bị được các hãng công nghệ như OpenAI sẵn đón bậc nhất để phát triển các chương trình AI tiên tiến như ChatGPT.
Theo các nhà phân tích, nếu chip do AMD sản xuất (được gọi là bộ gia tốc cho AI) được các nhà phát triển AI và nhà sản xuất máy chủ chấp nhận để thay thế cho các sản phẩm của Nvidia, nó có thể mở ra một thị trường cực kỳ tiềm năng cho Đội Đỏ, vốn nổi tiếng với các mẫu chip cho máy tính truyền thống.
"Chúng tôi nghĩ [thị trường] thiết bị gia tốc AI của các trung tâm dữ liệu sẽ tăng từ khoảng 30 tỷ USD trong năm nay, với tốc độ tăng trưởng gộp hàng năm trên 50%, lên hơn 150 tỷ USD vào năm 2027," CEO AMD Lisa Su tuyên bố.
Mặc dù AMD không tiết lộ giá bán các sản phẩm chip AI của mình, nhưng động thái này có thể gây áp lực về giá đối với GPU của Nvidia, chẳng hạn như dòng H100, vốn được cho là có giá từ 30.000 USD trở lên. Đương nhiên, giá bán GPU cho AI thấp hơn có thể giúp giảm chi phí cho việc phục vụ các ứng dụng AI tổng quát, vốn đang rất 'ngốn tiền'.
AMD cho biết chip MI300X mới và kiến trúc CDNA của nó được thiết kế cho các mô hình ngôn ngữ lớn và các mô hình AI tiên tiến khác. MI300X có thể sử dụng dung lượng bộ nhớ lên tới 192GB, có nghĩa là nó có thể phù hợp với các mô hình AI có quy mô lớn hơn so với các chip AI khác trên thị trường.
Chẳng hạn, mẫu GPU H100 của Nvidia chỉ hỗ trợ dung lượng bộ nhớ lên tới 120GB. Các mô hình ngôn ngữ lớn cho các ứng dụng AI tổng quát sử dụng nhiều bộ nhớ, do các mô hình này phải chạy số lượng phép tính ngày một nhiều.
Được biết, AMD đã cho chip MI300x chạy thử trên mô hình 40 tỷ tham số có tên là Falcon. Để so sánh, mô hình GPT-3 của OpenAI có 175 tỷ tham số.
"Kích thước của mô hình ngôn ngữ ngày càng lớn hơn và bạn thực sự cần nhiều GPU để chạy các mô hình lớn mới nhất," CEO Lisa Su nói.
Tuy nhiên, người đứng đầu AMD khẳng định, với dung lượng bộ nhớ được mở rộng của MI300x, các nhà phát triển AI sẽ không cần phải trang bị thêm số lượng lớn GPU.
AMD cũng cho biết họ sẽ cung cấp công nghệ Infinity Architecture (Tạm dịch: Kiến trúc Vô cực), vốn kết hợp sức mạnh của tám bộ gia tốc M1300X trong cùng một hệ thống. Trước đó, Nvidia và Google cũng đã phát triển các hệ thống tương tự, khi kết hợp tám GPU trở lên trong một hộp thiết bị duy nhất cho các ứng dụng AI.
Một lý do khiến các nhà phát triển AI ưa thích chip Nvidia trước đây là do hãng này sở hữu gói công cụ được phát triển rất tốt có tên CUDA, cho phép các nhà phát triển truy cập các tính năng phần cứng cốt lõi của chip. Để cạnh tranh với CUDA, AMD cũng đã phát triển một bộ công cụ riêng cho AI có tên gọi ROCm.
"Mặc dù đây vẫn là một hành trình mới mẻ của AMD vào thị trường AI, chúng tôi đã đạt được tiến bộ thực sự lớn trong việc xây dựng một kho phần mềm mạnh mẽ hoạt động với hệ sinh thái mở gồm các mô hình, thư viện, khung và công cụ", Chủ tịch AMD Victor Peng cho biết.
Về phía Nvidia, nhờ sự trỗi dậy của AI khiến nhu cầu mua sắm các thiết bị phục vụ nghiên cứu tăng đột biến, công ty này đã thu về mức doanh thu tăng trưởng mạnh so với nhiều năm trước đó. Theo CNBC, Nvidia đã trở thành hãng sản xuất chip đầu tiên trên thế giới đạt mức giá trị vốn hóa 1.000 tỷ USD, qua đó gia nhập “CLB vốn hóa nghìn tỷ USD” cùng với Apple, Microsoft, Alphabet và Amazon.
Những con chip H100 của Nvidia được ưa chuộng bởi các công ty Big Tech như Microsoft và Amazon và các startup chuyên về AI tạo sinh (như OpenAI, Anthropic, Stability Ai và Infection AI). Lý do là bởi những con chip này có hiệu suất rất cao, giúp rút ngắn chi phí đào tạo AI hoặc đẩy nhanh tốc độ phát triển và ra mắt sản phẩm.
Gần đây nhất, Nvidia đã công bố DGX GH200 - mẫu GPU xử lý AI mới nhất của hãng này. Nền tảng siêu điện toán AI này được tạo nên từ việc ghép nối 256 siêu chip Grace Hopper Superchips trên bộ nhớ dùng chung 144TB, cho phép xử lý được các tác vụ huấn luyện AI sản sinh tiêu tốn hiệu năng nhất hiện nay. Mỗi siêu chip Grace Hopper này là sự kết hợp giữa một CPU ARM 72 nhân Grace, một GPU Hopper và 96GB bộ nhớ HBM3 và 512GB bộ nhớ LPDDR5X trên cùng một chip với tổng cộng 200 tỷ bóng bán dẫn.
Trí Thức Trẻ