Kế hoạch của NVIDIA & Meta về tăng tốc phát triển GenAI thông qua việc mở rộng nhanh chóng các trung tâm dữ liệu, nhu cầu cung cấp thêm DRAM từ SK hynix
Với tầm ảnh hưởng ngày càng tăng của AI, các công ty như Meta đã chuyển trọng tâm sang phát triển máy chủ AI để tận dụng xu hướng hiện tại và tương lai. Một ví dụ điển hình cho điều này là lễ ra mắt AI Research SuperCluster, được công ty tiết lộ cách đây một năm với GPU A100 của NVIDIA. Meta đặt mục tiêu tích hợp GenAI vào nền tảng truyền thông xã hội chính thống của mình, do đó nó hiện đang tiến tới việc tiếp thu công nghệ tiên tiến để đạt được mục tiêu.
Các nguồn tin trong ngành trích dẫn rằng các quan chức của Meta đã đến thăm cơ sở Icheon của SK Hynix, nơi công ty phân tích bộ phận bộ nhớ HBM và DDR5. Hơn nữa, Meta cũng đã tiến hành kiểm tra chất lượng các mô-đun bộ nhớ DDR5, bày tỏ sự quan tâm của họ đối với quy trình này. Meta đã là đối tác ổn định của SK Hynix và chủ yếu kinh doanh các giải pháp lưu trữ cho máy chủ của mình. Tuy nhiên, do nhu cầu quá lớn về AI hiện tại, Meta hiện đang nhắm mục tiêu có được nguồn cung cấp bộ nhớ DDR5. Thật không may, công ty đang phải đối mặt với một thách thức lớn, đó là chuỗi cung ứng “không cân bằng”.
DDR5 và HBM đang thiếu hụt so với nhu cầu. Meta và Nvidia liên tục yêu cầu thêm sản phẩm từ SK Hynix nên việc kiểm tra chất lượng cũng như thảo luận về việc cung cấp sản phẩm bổ sung đã được thực hiện tại nhà máy Icheon.
-Nguồn tin trong ngành đến từ news1
Có thông tin cho rằng nhu cầu về bộ nhớ DDR5 của Meta đã gặp phải sự đặt trước từ SK Hynix, đồng thời tuyên bố rằng công ty đang phải đối mặt với tình trạng tồn đọng đơn hàng do nhu cầu quá lớn. Điều này thực sự hiển nhiên, do thực tế là mọi công ty khác trong cuộc đua GenAI đều đang hối hả hướng tới việc có được công nghệ cần thiết để vận hành các trung tâm dữ liệu thế hệ hiện tại, trong đó bộ nhớ DDR5 là một phần quan trọng.
Ngoài Meta, có thông tin tiết lộ rằng NVIDIA cũng đang có kế hoạch sớm đến thăm các cơ sở của SK Hynix để thảo luận về bộ nhớ “HBM3e” thế hệ tiếp theo cho các GPU AI sắp ra mắt. Ngành công nghiệp HBM hiện đang chứng kiến sự phục hồi và tăng trưởng đáng kinh ngạc, chủ yếu là do tầm quan trọng của chúng đối với GPU AI, đặc biệt là NVIDIA H100. NVIDIA đã lấy mẫu bộ nhớ HBM3e trước đây và nhìn bề ngoài thì nó đã sẵn sàng để tích hợp vào các sản phẩm AI thế hệ tiếp theo.
Vì Team Green đang có kế hoạch nâng cấp sản xuất trên quy mô lớn nên chắc chắn rằng các nhà cung cấp có thể phải giảm ga để đáp ứng nhu cầu khổng lồ. Với mục tiêu vận chuyển 1,5 triệu đến 2 triệu chiếc H100 vào năm 2024, NVIDIA đang tìm kiếm một chuỗi cung ứng ổn định và có lẽ là một lối thoát khỏi tình trạng tồn đọng đơn hàng hiện tại.
Đối với các nhà cung cấp như SK Hynix, sự bùng nổ AI là cứu cánh giúp công ty thoát khỏi tình trạng tài chính suy yếu. Gã khổng lồ Hàn Quốc đã chứng kiến những tổn thất kinh tế kể từ đầu năm và công ty đã “đặt cược” tương lai của mình vào sự cường điệu về AI. Vì nó hiện chiếm 80% thị phần toàn cầu trong ngành HBM nên chúng ta có thể thấy những con số tạo ra doanh thu khổng lồ trong các quý sắp tới.