Chip Google khiến Nvidia bị ‘thổi bay’ hơn 700 tỷ USD trong chưa đầy 1 tháng
(Thị trường tài chính) - Cổ phiếu của “ông lớn” ngành bán dẫn thế giới Nvidia sụt giá cực mạnh do bị ảnh hưởng bởi cú sốc từ TPU - loại chip do Google tự phát triển.
Google đàm phán với Meta, trỗi dậy nhờ “vũ khí bí mật”: Nvidia dè chừng
Thị trường chip trí tuệ nhân tạo (chip AI) đang có nhiều biến động ngầm.
Google, một trong những “gã khổng lồ” công nghệ thế giới đang đẩy nhanh quá trình thương mại hóa chip AI tự phát triển, TPU.
Các báo cáo cho thấy Google đang đàm phán với nhiều công ty công nghệ lớn như Meta (công ty mẹ của Facebook) về các quan hệ đối tác mua sắm bên ngoài.
Từ góc nhìn của một người ngoài cuộc, nếu các mối quan hệ đối tác này thành hiện thực, TPU sẽ được đưa vào các trung tâm dữ liệu siêu quy mô của Google, nằm ngoài hệ sinh thái của hãng, có khả năng tác động đến thị trường điện toán vốn đang bị thống trị bởi GPU của Nvidia.
Sau tin tức này, giá cổ phiếu Nvidia đã biến động mạnh. Trong phiên giao dịch đầu ngày thứ Ba (25/11), giá cổ phiếu Nvidia đã giảm tới 7% và cuối cùng đóng cửa phiên này giảm khoảng 2,6%.
Kể từ ngày 29/10, vốn hóa thị trường của Nvidia đã giảm từ 5,03 nghìn tỷ USD xuống còn 4,32 nghìn tỷ USD vào cuối phiên giao dịch ngày 25/11, tức là mất hơn 700 tỷ USD (hơn 18,46 triệu tỷ đồng) trong vòng chưa đầy 1 tháng.

Rạng sáng 26/11, Nvidia đã trực tiếp phản hồi thông tin về Google - đối thủ cạnh tranh của họ trên mạng xã hội: “Chúng tôi rất hài lòng với thành công của Google - họ đã có những bước tiến đáng kể trong lĩnh vực trí tuệ nhân tạo và chúng tôi sẽ tiếp tục cung cấp cho Google. Nvidia đã đi trước trong ngành này cả một thế hệ và là nền tảng duy nhất có khả năng chạy tất cả các mô hình AI và triển khai trong mọi tình huống tính toán”.
Là công ty dẫn đầu toàn cầu trên thị trường GPU, Nvidia đã ứng phó với những thách thức do chip tự phát triển đặt ra bằng “lợi thế dẫn đầu một thế hệ” và “lợi thế trong mọi tình huống”. Ngay cả khi các chip TPU của Google có thể thâm nhập vào các trung tâm dữ liệu của những “gã khổng lồ” như Meta, điều đó không có nghĩa là GPU sẽ bị thay thế trong ngắn hạn. Trên thực tế, Google đã tuyên bố rằng nhu cầu đối với cả chip TPU tùy chỉnh của họ và GPU Nvidia đều đang tăng tốc.
Nhiều chuyên gia trong ngành tin rằng khi khối lượng công việc đào tạo và suy luận AI tăng lên và đa dạng hơn thì trong tương lai, nhiều khả năng sẽ chứng kiến sự triển khai không đồng nhất của ASIC và GPU, thay vì một kiến trúc thống trị thị trường.
Video TPU của Google quyết đấu GPU của Nvidia: Cuộc chiến chip AI mới đang định hình tương lai - Nguồn: CNBC-TV18
Google đẩy nhanh quá trình thương mại hóa TPU
Theo tờ Sina, Google đã phát triển TPU trong một thời gian dài, bắt đầu từ năm 2013 và chúng được tích hợp chặt chẽ với các dịch vụ Google Cloud.
Trước đây, TPU chủ yếu được sử dụng cho khối lượng công việc AI nội bộ và các dịch vụ Google Cloud. Tuy nhiên, gần đây, một số cơ quan truyền thông đã đưa tin Google đang thúc đẩy việc bán chip tự phát triển cho các khách hàng bên ngoài.
Meta đang xem xét triển khai TPU của Google tại các trung tâm dữ liệu của mình bắt đầu từ năm 2027 và có thể thuê dung lượng TPU thông qua Google Cloud ngay từ năm sau, với giá trị hợp đồng tiềm năng lên tới hàng tỷ USD.
Hiện tại, Nvidia nắm giữ hơn 90% thị phần chip AI, trong khi các công ty như Google đang ngày càng giành được nhiều thị phần hơn.
Động thái của Google không phải là đột ngột. Một mặt, đây là sự mở rộng tự nhiên của chiến lược “tích hợp phần cứng-phần mềm” dài hạn của “gã khổng lồ công cụ tìm kiếm” này. Mặt khác, với chi phí đào tạo các mô hình lớn đang tăng theo cấp số nhân, việc tự phát triển chip đã trở thành một con đường quan trọng để các tập đoàn lớn giảm mức tiêu thụ năng lượng và kiểm soát chi phí.
Vào tháng 4 năm nay, Google đã ra mắt thế hệ TPU mới nhất - TPU v7 (Ironwood) và gần đây đã được nâng cấp lên Gemini 3. Hãng tìm kiếm lừng danh này đang củng cố vòng khép kín công nghệ của mình trong kỷ nguyên mô hình lớn bằng cách kết hợp mô hình và phần cứng. Được biết, Gemini 3 đã sử dụng rộng rãi TPU cho mục đích đào tạo và suy luận, cung cấp cho Google các kịch bản xác thực mạnh mẽ hơn để thúc đẩy thương mại hóa TPU.
Là một công ty kỳ cựu trong lĩnh vực AI, Google đã đạt được độ phủ sóng toàn diện từ đám mây, thiết bị đầu cuối, chip, mô hình lớn, công cụ nền tảng...
Trong khi đó, Nvidia, “ông vua GPU” cũng đang xây dựng một hệ thống cơ sở hạ tầng AI hoàn chỉnh, bao gồm các rào cản như CUDA, NVLink và kết nối tốc độ cao.
Đáp lại những thảo luận bên ngoài về khả năng vị thế thống lĩnh của mình bị suy yếu, tập đoàn bán dẫn lừng danh của Tổng Giám đốc điều hành (CEO) Jensen Huang đã nhanh chóng đưa ra một tuyên bố.
Một mặt, Nvidia nhấn mạnh tính ổn định và liên tục của mối quan hệ đối tác với Google; mặt khác, lập luận chính của hãng này rất rõ ràng: tính linh hoạt và khả năng tương thích của GPU vẫn là một cơ sở hạ tầng không thể thay thế cho sự đổi mới AI hiện tại.
Ngược lại, các chip ASIC như TPU, Gaudi và Trainium thường đạt hiệu suất cực cao trên các khối lượng công việc cụ thể dựa trên các khuôn khổ hoặc kịch bản tác vụ cụ thể. Google vẫn tiếp tục mua GPU Nvidia, nhưng trong tương lai, các nhà sản xuất sẽ áp dụng chiến lược cung cấp năng lượng điện toán đa dạng cho việc đào tạo và suy luận AI.

“Cuộc vây hãm” của Nvidia
Sự tăng tốc của Google chỉ là một ví dụ về những thách thức mà Nvidia đang phải đối mặt. Một xu hướng rộng hơn là các “gã khổng lồ công nghệ toàn cầu” đang đẩy nhanh quá trình phát triển chip AI của riêng mình, cạnh tranh để giành ưu thế về sức mạnh tính toán. Từ đào tạo đến suy luận, từ các mô hình đa năng đến các ứng dụng chuyên biệt, nhiều công ty đang bắt đầu coi việc kiểm soát sức mạnh tính toán của riêng mình là “chìa khóa” cho giai đoạn cạnh tranh tiếp theo.
Bên cạnh Google, AWS và Microsoft cũng đang liên tục cải tiến các dòng chip do họ tự phát triển. AWS đã liên tục cập nhật dòng Graviton, Trainium và Inferentia, cho thấy đà phát triển mạnh mẽ. Tuy nhiên, kế hoạch ra mắt chip mới của Microsoft đã bị trì hoãn sau khi ra mắt dòng chip AI Maia do họ tự phát triển.
Tại thị trường Trung Quốc, các công ty mới nổi như Huawei Ascend, Cambricon và Baidu Kunlun Chip đang có những bước tiến nhanh chóng. Có thể thấy toàn bộ ngành công nghiệp chip thế giới đang chuyển đổi từ kiến trúc GPU đơn luồng sang một hệ thống không đồng nhất với nhiều kiến trúc và nhà cung cấp khác nhau.
Xu hướng này càng rõ ràng hơn trong những lần hợp tác gần đây của Anthropic. Một mặt, Anthropic đã ký một thỏa thuận cơ sở hạ tầng dài hạn với Nvidia để xây dựng dựa trên các hệ thống Blackwell và Rubin; mặt khác, công ty này cũng mua lại Ironwood TPU mới nhất của Google. Phương pháp mua sắm “đa hướng” này củng cố tín hiệu cho thấy các công ty AI lớn không còn sẵn sàng đặt cược toàn bộ tương lai của mình vào một kiến trúc chip đơn lẻ, mà thay vào đó họ muốn đa dạng hóa chuỗi cung ứng năng lực tính toán của mình.
Trong cuộc họp báo cáo thu nhập quý II/2025 của Nvidia, khi thảo luận về sự cạnh tranh giữa ASIC và GPU, nhà sáng lập kiêm CEO của Nvidia, Jensen Huang đã trả lời rằng có rất nhiều công ty sản xuất ASIC AI trên thị trường, nhưng rất ít sản phẩm có thể thực sự được đưa vào sản xuất. Điều này là do điện toán tăng tốc hoàn toàn khác với điện toán thông thường và không thể đạt được chỉ bằng cách viết phần mềm và biên dịch nó vào bộ xử lý. Nền tảng công nghệ cho điện toán tăng tốc vốn đã cực kỳ phức tạp.
Tuy nhiên, thị trường không hoàn toàn yên tâm. Giá cổ phiếu Nvidia đã biến động đáng kể sau khi tin tức về việc Google thương mại hóa TPU xuất hiện. Điều này phản ánh việc thị trường đang đánh giá lại thị phần và biên lợi nhuận của GPU trong cơ sở hạ tầng AI tương lai, đồng thời khiến các nhà đầu tư lo ngại liệu thời kỳ đỉnh cao của Nvidia đã qua hay chưa.
Bất kể phương pháp nào cuối cùng chiếm ưu thế, có một điều chắc chắn rằng ngành công nghiệp cơ sở hạ tầng AI đang chuyển từ cạnh tranh chỉ dựa trên phần cứng sang cạnh tranh ở cấp độ hệ thống. Khi các khuôn khổ phần mềm, hệ thống mô hình và hiệu quả năng lượng phát triển, bối cảnh chip AI cũng tiếp tục thay đổi không ngừng.
Theo Sina





