OpenAI không hài lòng với chip của Nvidia cho các tác vụ suy luận (inference) và đã tìm kiếm giải pháp thay thế từ năm ngoái, khiến mối quan hệ giữa hai “ông lớn” AI trở nên căng thẳng. Trong khi đó, kế hoạch Nvidia đầu tư 100 tỷ USD vào OpenAI cũng bị đình trệ khi cả hai bên đều thận trọng, tránh phụ thuộc quá mức vào nhau.

nvidia (1)

Hãy hình dung thế này. Bạn là Nvidia, ông vua không thể tranh cãi của chip AI. GPU của bạn vận hành mọi thứ, từ ChatGPT đến những nghiên cứu AI tiên tiến nhất. Các công ty xếp hàng ném tiền vào bạn. Giá cổ phiếu tăng vọt. Cuộc sống thật tuyệt.

Rồi khách hàng tiềm năng lớn nhất của bạn, OpenAI, bắt đầu đi “xem hàng” ở nơi khác. Khá gượng gạo.

Đó chính xác là điều đang diễn ra. Theo một bài viết của Reuters, OpenAI dường như đã không hài lòng với chip của Nvidia từ năm ngoái và âm thầm tìm kiếm các lựa chọn thay thế. Đây không chỉ là tin đồn. Có tới 8 nguồn tin xác nhận với Reuters.

Nhưng khoan, chẳng phải Nvidia và OpenAI từng là “đôi bạn thân” sao? Chẳng phải Nvidia dự định đầu tư tới 100 tỷ USD vào OpenAI ư? Chuyện gì đã xảy ra?

Vấn đề cốt lõi

Mọi chuyện xoay quanh một từ: suy luận (inference).

Hãy phân tích đơn giản. Khi xây dựng một mô hình AI như ChatGPT, có hai giai đoạn chính. Đầu tiên là huấn luyện (training), nơi bạn đưa vào khối dữ liệu khổng lồ để mô hình học các mẫu và mối quan hệ. Giống như dạy cho một học sinh tất cả kiến thức nền tảng. Chip của Nvidia làm việc này rất xuất sắc. Không có gì để phàn nàn.

Sau đó là suy luận. Đây là lúc mô hình đã được huấn luyện thực sự “làm việc”, trả lời câu hỏi và hoàn thành nhiệm vụ. Khi bạn gõ một câu lệnh vào ChatGPT và nhận phản hồi, đó chính là suy luận. Và theo OpenAI, trong một số tình huống, chip của Nvidia chưa đủ nhanh.

Cụ thể, OpenAI gặp vấn đề với tốc độ phần cứng của Nvidia trong việc trả lời các tác vụ như phát triển phần mềm hay giao tiếp giữa các AI với nhau. Công ty cần các con chip có thể cung cấp khoảng 10% năng lực tính toán suy luận trong tương lai, nhưng các sản phẩm hiện tại của Nvidia chưa đáp ứng được.

Vì sao lại có sự khác biệt về tốc độ? Nguyên nhân nằm ở kiến trúc bộ nhớ. Chip của Nvidia phụ thuộc vào bộ nhớ ngoài, giống như mỗi lần cần đồ là phải đi sang phòng khác lấy, gây tốn thời gian xử lý. OpenAI muốn những con chip có dung lượng bộ nhớ lớn được tích hợp ngay trên chip, gọi là SRAM. Cách này nhanh hơn nhiều, giống như có mọi thứ ngay trên bàn làm việc thay vì trong tủ hồ sơ ở cuối văn phòng.

Thế giới thay thế

Vì vậy, OpenAI bắt đầu tìm kiếm. Theo Reuters, họ đã nói chuyện với các nhà sản xuất chip như Cerebras và Groq, những công ty chuyên về chip có bộ nhớ tích hợp quý giá đó. Họ cũng đạt thỏa thuận với AMD và Broadcom.

Nhưng câu chuyện trở nên thú vị ở chỗ, Nvidia không đứng yên. Khi Groq có vẻ sắp hợp tác với OpenAI, Nvidia đã tung ra một thỏa thuận cấp phép trị giá 20 tỷ USD, gần như chặn đứng các cuộc đàm phán. Một nước cờ quyền lực. Nvidia về cơ bản đã “khóa” công nghệ của Groq và thậm chí còn chiêu mộ các kỹ sư thiết kế chip của họ.

OpenAI vẫn kịp đạt thỏa thuận với Cerebras vào tháng 1, và CEO Sam Altman công khai thừa nhận rằng điều này sẽ giúp đáp ứng yêu cầu tốc độ cho các tác vụ lập trình. Nhưng mối quan hệ Nvidia-OpenAI lúc đó đã sứt mẻ.

Khoản đầu tư không thành

Còn khoản đầu tư 100 tỷ USD mà Nvidia được cho là sẽ rót vào OpenAI thì sao? Khoản này từng được công bố vào tháng 9 với một thư bày tỏ ý định không ràng buộc? Giờ đã là tháng 2, và thỏa thuận đó vẫn giậm chân tại chỗ.

CEO Nvidia Jensen Huang gần đây nói với báo chí rằng con số 100 tỷ USD chưa bao giờ là một cam kết thực sự. Ông bác bỏ các tin đồn về căng thẳng, nhưng cũng nhấn mạnh Nvidia sẽ không để mình phụ thuộc quá nhiều vào OpenAI.

Điều này cũng dễ hiểu. Hãy nhìn Microsoft. Công ty này từng chịu một trong những phiên giảm giá cổ phiếu mạnh nhất chỉ trong một ngày, một phần vì nhà đầu tư lo ngại họ gắn bó quá chặt với OpenAI. Nvidia không muốn rơi vào thế dễ tổn thương như vậy.

Dù vậy, Huang cho biết Nvidia vẫn sẽ tham gia vòng gọi vốn hiện tại của OpenAI, gọi đây có thể là khoản đầu tư lớn nhất mà Nvidia từng thực hiện. Để so sánh, trước đây họ từng đầu tư 5 tỷ USD vào Intel. Vì thế, không phải Nvidia quay lưng hoàn toàn, mà là họ đang rất thận trọng về hình ảnh và mức độ ràng buộc.

Kết luận

Toàn bộ câu chuyện này cho thấy một điều quan trọng về ngành AI. Huấn luyện mô hình và vận hành mô hình là hai thách thức rất khác nhau, đòi hỏi các công nghệ khác nhau. Nvidia có thể thống trị mảng huấn luyện, nhưng suy luận đang trở thành một chiến trường hoàn toàn mới.

Và OpenAI không phải là trường hợp duy nhất tìm kiếm giải pháp thay thế. Các đối thủ như Claude của Anthropic hay Gemini của Google đã sử dụng các bộ xử lý tensor tùy chỉnh của Google, vốn được tối ưu tốt hơn cho các tác vụ suy luận.

Vì vậy, dù Nvidia và OpenAI vẫn là đối tác và cả hai phía đều nói những lời tốt đẹp trước công chúng, thực tế phức tạp hơn nhiều. OpenAI cần chip nhanh hơn cho những nhiệm vụ cụ thể. Nvidia muốn bảo vệ vị thế thống trị và tránh bị đóng khung là phụ thuộc vào một khách hàng duy nhất. Cả hai đang di chuyển rất thận trọng trong một ngành thay đổi chóng mặt, nơi công nghệ tiên tiến của hôm nay có thể trở thành điểm nghẽn của ngày mai.

Cuộc chiến chip AI đang nóng lên. Và những tay chơi lớn nhất đều đang “đánh cược” theo cách an toàn cho mình.

Bình Minh / Market Times