Độc quyền: Google tăng cường mối quan hệ với Phòng thí nghiệm Thinking Machines bằng thỏa thuận trị giá hàng tỷ đô la
Startup Thinking Machines Lab của cựu giám đốc điều hành OpenAI Mira Murati đã ký một thỏa thuận trị giá nhiều tỷ đô la mới để mở rộng việc sử dụng cơ sở hạ tầng AI của Google Cloud, bao gồm các hệ thống được hỗ trợ bởi GPU mới nhất của Nvidia, TechCrunch độc quyền tiết lộ.
Thỏa thuận này trị giá hàng tỷ đô la (một con số có một chữ số), theo một nguồn tin quen thuộc với vấn đề này, và bao gồm quyền truy cập vào các hệ thống AI mới nhất của Google được xây dựng trên chip GB300 mới của Nvidia, cùng với các dịch vụ cơ sở hạ tầng để hỗ trợ đào tạo và triển khai mô hình. Google đã tích cực thực hiện một số thỏa thuận đám mây với các nhà phát triển AI khi họ đặt mục tiêu kết hợp các dịch vụ đám mây của mình với các dịch vụ khác như lưu trữ, công cụ Kubernetes và Spanner, sản phẩm cơ sở dữ liệu của họ. Đầu tháng này, Anthropic đã ký một thỏa thuận với Google và Broadcom về dung lượng đơn vị xử lý tensor (TPU) nhiều gigawatt (đây là các chip AI được thiết kế riêng của Google cho khối lượng công việc học máy). Nhưng sự cạnh tranh rất khốc liệt. Chỉ trong tuần này, Anthropic cũng đã ký một thỏa thuận mới với Amazon để đảm bảo dung lượng lên đến 5 gigawatt để đào tạo và triển khai Claude. Đầu năm nay, Thinking Machines đã hợp tác với Nvidia trong một thỏa thuận bao gồm khoản đầu tư từ nhà sản xuất chip. Nhưng đây là lần đầu tiên phòng thí nghiệm này đạt được thỏa thuận với một nhà cung cấp dịch vụ đám mây.
Thỏa thuận này không độc quyền, vì vậy Thinking Machines có thể sử dụng nhiều nhà cung cấp đám mây theo thời gian, nhưng đó vẫn là một dấu hiệu cho thấy Google đang tìm cách khóa chân các phòng thí nghiệm tiên phong đang phát triển nhanh chóng từ sớm. Murati đã rời bỏ công việc giám đốc công nghệ của OpenAI và thành lập Thinking Machines vào tháng 2 năm 2025. Công ty, sau đó đã huy động được vòng hạt giống trị giá 2 tỷ đô la với mức định giá 12 tỷ đô la, vẫn rất bí mật, nhưng đã ra mắt sản phẩm đầu tiên vào tháng 10. Được mệnh danh là Tinker, đây là một công cụ tự động hóa việc tạo ra các mô hình AI tiên phong tùy chỉnh.
Thỏa thuận hôm thứ Tư đã cung cấp một số thông tin chi tiết về những gì Thinking Machines đang phát triển. Trong một thông cáo báo chí, Google lưu ý rằng họ có thể hỗ trợ khối lượng công việc học tăng cường của startup, mà kiến trúc của Tinker dựa vào. Học tăng cường là một phương pháp đào tạo đã hỗ trợ những đột phá gần đây tại các phòng thí nghiệm, bao gồm DeepMind và OpenAI, và quy mô của thỏa thuận Google Cloud phản ánh mức độ tốn kém về mặt tính toán của công việc đó.
Sự kiện Techcrunch San Francisco, CA | 13-15 tháng 10 năm 2026
Thinking Machines là một trong những khách hàng Google Cloud đầu tiên truy cập vào các hệ thống được hỗ trợ bởi GB300, cung cấp cải tiến gấp 2 lần về tốc độ đào tạo và phục vụ so với GPU thế hệ trước, theo Google.
“Google Cloud đã giúp chúng tôi hoạt động với tốc độ kỷ lục với độ tin cậy mà chúng tôi yêu cầu,” Myle Ott, một nhà nghiên cứu sáng lập tại Thinking Machines, cho biết trong một tuyên bố.
Khi bạn mua hàng thông qua các liên kết trong bài viết của chúng tôi, chúng tôi có thể kiếm được một khoản hoa hồng nhỏ. Điều này không ảnh hưởng đến sự độc lập biên tập của chúng tôi.
Rebecca Bellan là một phóng viên cấp cao tại TechCrunch, nơi cô đưa tin về các xu hướng kinh doanh, chính sách và mới nổi định hình trí tuệ nhân tạo. Công việc của cô cũng đã xuất hiện trên Forbes, Bloomberg, The Atlantic, The Daily Beast và các ấn phẩm khác. Bạn có thể liên hệ hoặc xác minh thông tin từ Rebecca bằng cách gửi email đến rebecca.bellan@techcrunch.com hoặc qua tin nhắn được mã hóa tại rebeccabellan.491 trên Signal. Xem Tiểu sử
Góc nhìn từ cộng đồng
Hãy là người đầu tiên thêm một góc nhìn hữu ích để mạch đọc này trở nên sâu hơn.