Thị trường chip AI đang dịch chuyển từ HBM sang các mô-đun DRAM tiêu thụ thấp như Socamm2. SK hynix và Micron đẩy mạnh giải pháp DRAM công suất thấp để giảm tiêu thụ điện và xoa dịu áp lực giá HBM do nhu cầu AI tăng mạnh.
Nguồn: Koreajoongangdaily
Chuyển hướng từ HBM sang DRAM tiêu thụ thấp
Sự bùng nổ ứng dụng AI, đặc biệt trong suy luận (inference) và các hệ thống biên, đã tạo ra nhu cầu rất lớn với HBM (High Bandwidth Memory). Tuy nhiên HBM tiêu tốn nhiều điện và đang gây áp lực về chuỗi cung ứng lẫn giá cả, khiến ngành chip tìm kiếm các lựa chọn thay thế tiết kiệm năng lượng hơn.Socamm2: giải pháp DRAM công suất thấp
Socamm2 là mô-đun DRAM thiết kế cho hiệu năng/điện năng tối ưu trong các tác vụ AI. Micron đã xuất xưởng mô-đun Socamm2 dung lượng 256GB vào ngày 3/3, trong khi SK hynix phát triển chip Socamm riêng để cải thiện hiệu suất với mức tiêu thụ điện thấp hơn so với HBM.Lợi ích kỹ thuật và kinh tế
So với HBM, các mô-đun DRAM tiêu thụ thấp như Socamm2 mang lại chi phí thấp hơn và yêu cầu hạ tầng lắp đặt đơn giản hơn, phù hợp cho nhiều thiết kế máy chủ và thiết bị biên. Điều này giúp các nhà cung cấp AI giảm chi phí vận hành và mở rộng triển khai trên diện rộng mà không luôn cần đến HBM siêu tốc.Tác động đến các nhà sản xuất và thị trường
Nhu cầu AI tăng cao đã đẩy giá HBM tăng, ảnh hưởng lan tỏa tới giá nhiều thiết bị điện tử. Trong bối cảnh đó, SK hynix đạt được lợi thế nhờ phát triển Socamm, còn Micron đưa mô-đun ra thị trường. Samsung vẫn duy trì năng lực sản xuất bộ nhớ trong khi các đối thủ điều chỉnh chiến lược để đáp ứng cả nhu cầu HBM lẫn DRAM công suất thấp.Dự báo và ý nghĩa dài hạn
Socamm2 và các mô-đun DRAM tiêu thụ thấp có thể giảm bớt áp lực lên nhu cầu HBM cho nhiều ứng dụng inference và edge AI, nhưng HBM vẫn giữ vai trò quan trọng cho các bài toán huấn luyện quy mô lớn. Thị trường bộ nhớ sẽ tiếp tục song song tồn tại cả hai hướng: HBM cho hiệu năng cao và DRAM công suất thấp cho hiệu quả chi phí và tiêu thụ điện.Nguồn: Koreajoongangdaily
Bài viết liên quan
