Biểu tượng của Tập đoàn Meta. Ảnh: AFP/TTXVN
Theo phóng viên TTXVN tại New York, tin từ Wall Street Journal (WSJ) ngày 25/11 cho biết Meta Platforms đang đàm phán để sử dụng chip do Google sản xuất nhằm đẩy nhanh bước tiến về AI của mình, một bước nhằm đa dạng hóa khỏi sự phụ thuộc vào Nvidia. Một thỏa thuận có thể trị giá hàng tỷ USD, nhưng các cuộc đàm phán vẫn chưa hoàn tất và có thể không đi đến kết quả cuối cùng.
Theo nguồn tin ẩn danh WSJ tiếp cận được, hiện chưa rõ Meta sẽ dùng các chip này - được gọi là bộ xử lý tensor hay TPU, để huấn luyện mô hình AI hay để chạy suy luận. Suy luận là quá trình mà một mô hình đã được huấn luyện dùng để tạo ra phản hồi cho truy vấn, và yêu cầu năng lực tính toán ít hơn so với huấn luyện.
Nhiều năm qua, Google đã nỗ lực tinh chỉnh chip của mình và mở rộng quy mô mảng kinh doanh này. Một thỏa thuận lớn với Meta sẽ là cơ hội giúp Google và các nhà sản xuất chip khác thâm nhập vào sự thống trị thị trường của Nvidia. Cổ phiếu Nvidia giảm 7% vào sáng ngày 25/11 sau khi xuất hiện thông tin về những cuộc đàm phán giữa Google và Beta.
Google cho biết Google Cloud đang chứng kiến “nhu cầu tăng tốc” đối với cả TPU tùy chỉnh lẫn GPU của Nvidia, và công ty “cam kết hỗ trợ cả hai, như chúng tôi đã làm trong nhiều năm”. Nvidia từ chối bình luận. Meta không phản hồi yêu cầu bình luận. Cả Nvidia và Google đều đang tìm cách lôi kéo khách hàng tiềm năng và đưa ra các thỏa thuận tài trợ nhằm giảm bớt áp lực chi phí khi mua chip.
Google bắt đầu sử dụng chip TPU từ hơn 10 năm trước, lúc đầu chỉ để phục vụ mục đích nội bộ như tăng hiệu quả của công cụ tìm kiếm. Năm 2018, hãng bắt đầu cung cấp cho khách hàng đám mây quyền sử dụng TPU cho nhu cầu huấn luyện và suy luận. Gần đây hơn, Google dùng các chip này để huấn luyện và vận hành các mô hình ngôn ngữ lớn Gemini của mình, và bán chúng cho khách hàng như Anthropic, công ty phát triển mô hình Claude.
Tháng trước, Anthropic thông báo rằng sẽ chi hàng chục tỷ USD kể từ năm 2026 để mua một triệu TPU của Google, tương đương khoảng 1 gigawatt công suất tính toán, nhằm phục vụ nghiên cứu AI và đáp ứng nhu cầu ngày càng tăng đối với các công cụ AI doanh nghiệp của họ.
Hiện tại, hầu hết mô hình ngôn ngữ lớn đều được huấn luyện bằng GPU của Nvidia. Hàng nghìn nhà phát triển ứng dụng đặt mua chip từ Nvidia, dưới hình thức trực tiếp hoặc thông qua các nhà cung cấp dịch vụ đám mây triển khai chúng trong những trung tâm dữ liệu khổng lồ. Ngược lại, TPU của Google là chip mạch tích hợp chuyên dụng (ASIC), được thiết kế cho một tác vụ tính toán cụ thể, giúp chúng tiết kiệm năng lượng hơn.