Bài công khaiNguồn: techcrunch.com1 phút đọc

Vụ kiện của Elon Musk đặt kỷ lục an toàn của OpenAI dưới kính hiển vi

Bài viết tập trung vào vụ kiện của Elon Musk chống lại OpenAI, xoay quanh việc liệu công ty đã đặt lợi nhuận lên trên cam kết an toàn AI ban đầu hay không. Các lời khai tại tòa cho thấy sự thay đổi trong văn hóa công ty, từ tập trung vào nghiên cứu và an toàn sang ưu tiên sản phẩm. Việc triển khai GPT-4 tại Ấn Độ mà không có đánh giá an toàn đầy đủ cũng được nêu bật như một dấu hiệu đáng lo ngại.

Tín hiệu0đánh giá có chiều sâu
Thảo luận0bình luận dưới bài
Chủ đề3nhánh tri thức liên quan
Nguồn gốctechcrunch.comhttps://techcrunch.com/2026/05/07/elon-musks-lawsuit-is-putting-openais-safety-record-under-the-microscope/

Tóm tắt nhanh

Bài viết tập trung vào vụ kiện của Elon Musk chống lại OpenAI, xoay quanh việc liệu công ty đã đặt lợi nhuận lên trên cam kết an toàn AI ban đầu hay không. Các lời khai tại tòa cho thấy sự thay đổi trong văn hóa công ty, từ tập trung vào nghiên cứu và an toàn sang ưu tiên sản phẩm. Việc triển khai GPT-4 tại Ấn Độ mà không có đánh giá an toàn đầy đủ cũng được nêu bật như một dấu hiệu đáng lo ngại.

Điểm chính

  • Elon Musk kiện OpenAI vì cho rằng công ty đã vi phạm cam kết an toàn AI ban đầu.
  • Lời khai tại tòa cho thấy OpenAI đã chuyển trọng tâm từ nghiên cứu an toàn sang phát triển sản phẩm.
  • Việc triển khai GPT-4 tại Ấn Độ mà không qua quy trình đánh giá an toàn đầy đủ là một điểm gây tranh cãi.

Vụ kiện của Elon Musk đang đặt hồ sơ an toàn của OpenAI dưới kính hiển vi

Nỗ lực pháp lý của Elon Musk nhằm giải thể OpenAI có thể phụ thuộc vào cách thức công ty con vì lợi nhuận của nó tăng cường hoặc làm suy yếu sứ mệnh ban đầu của phòng thí nghiệm tiên phong này là đảm bảo rằng nhân loại được hưởng lợi từ trí tuệ nhân tạo tổng quát (AGI). Hôm thứ Năm, một tòa án liên bang ở Oakland đã nghe một cựu nhân viên và thành viên hội đồng quản trị nói rằng những nỗ lực của công ty trong việc đưa các sản phẩm AI ra thị trường đã làm tổn hại đến cam kết của họ đối với an toàn AI. Rosie Campbell gia nhập nhóm sẵn sàng AGI của công ty vào năm 2021 và rời OpenAI vào năm 2024 sau khi nhóm của cô bị giải tán. Một nhóm tập trung vào an toàn khác, nhóm Siêu Căn Chỉnh (Super Alignment team), cũng bị đóng cửa trong cùng khoảng thời gian. “Khi tôi mới gia nhập, công ty rất tập trung vào nghiên cứu và mọi người thường xuyên nói về AGI và các vấn đề an toàn,” cô làm chứng. “Theo thời gian, nó trở nên giống một tổ chức tập trung vào sản phẩm hơn.”

Trong quá trình thẩm vấn chéo, Campbell thừa nhận rằng nguồn vốn đáng kể có khả năng là cần thiết cho mục tiêu xây dựng AGI của phòng thí nghiệm, nhưng cho biết việc tạo ra một mô hình máy tính siêu thông minh mà không có các biện pháp an toàn phù hợp sẽ không phù hợp với sứ mệnh của tổ chức mà cô gia nhập ban đầu. Campbell chỉ ra một sự cố khi Microsoft triển khai phiên bản mô hình GPT-4 của công ty ở Ấn Độ thông qua công cụ tìm kiếm Bing của mình trước khi mô hình được Ban An toàn Triển khai (DSB) của công ty đánh giá. Cô nói rằng bản thân mô hình này không gây ra rủi ro lớn, nhưng công ty cần “đặt ra những tiền lệ mạnh mẽ khi công nghệ trở nên mạnh mẽ hơn. Chúng tôi muốn có các quy trình an toàn tốt tại chỗ mà chúng tôi biết đang được tuân thủ một cách đáng tin cậy.”

Các luật sư của OpenAI cũng yêu cầu Campbell thừa nhận rằng theo “ý kiến mang tính suy đoán” của cô, phương pháp tiếp cận an toàn của OpenAI vượt trội so với phương pháp tại xAI, công ty AI do Musk thành lập và được SpaceX mua lại vào đầu năm nay. Sự kiện Techcrunch San Francisco, CA | 13-15 tháng 10 năm 2026 OpenAI công bố các đánh giá về các mô hình của mình và chia sẻ một khuôn khổ an toàn công khai, nhưng công ty từ chối bình luận về phương pháp tiếp cận hiện tại của mình đối với việc căn chỉnh AGI. Dylan Scandinaro, người đứng đầu bộ phận Chuẩn bị hiện tại của công ty, được thuê từ Anthropic vào tháng Hai. Altman nói rằng việc thuê Scandinaro sẽ giúp anh "ngủ ngon hơn đêm nay."

Tuy nhiên, việc triển khai GPT-4 ở Ấn Độ là một trong những dấu hiệu cảnh báo khiến hội đồng quản trị phi lợi nhuận của OpenAI sa thải CEO Sam Altman một thời gian ngắn vào năm 2023. Sự cố đó xảy ra sau khi các nhân viên bao gồm nhà khoa học trưởng Ilya Sutskever và CTO Mira Murati phàn nàn về phong cách quản lý né tránh xung đột của Altman. Tasha McCauley, một thành viên hội đồng quản trị vào thời điểm đó, đã làm chứng về những lo ngại rằng Altman không đủ thẳng thắn với hội đồng quản trị để cấu trúc khác thường của nó có thể hoạt động. McCauley cũng thảo luận về một mô hình được báo cáo rộng rãi về việc Altman đánh lừa hội đồng quản trị. Đáng chú ý, Altman đã nói dối một thành viên hội đồng quản trị khác về ý định của McCauley loại bỏ Helen Toner, một thành viên hội đồng quản trị thứ ba đã xuất bản một báo cáo chính sách bao gồm một số chỉ trích ngầm về chính sách an toàn của OpenAI. Altman cũng không thông báo cho hội đồng quản trị về quyết định ra mắt ChatGPT công khai và các thành viên lo ngại về việc ông không tiết lộ các xung đột lợi ích tiềm ẩn.

“Chúng tôi là một hội đồng quản trị phi lợi nhuận và nhiệm vụ của chúng tôi là có thể giám sát công ty vì lợi nhuận bên dưới chúng tôi,” McCauley nói với tòa án. “Cách chính để chúng tôi làm điều đó đang bị nghi ngờ. Chúng tôi không có mức độ tin tưởng cao chút nào để tin rằng thông tin được truyền đạt cho chúng tôi cho phép chúng tôi đưa ra quyết định một cách sáng suốt.” Tuy nhiên, quyết định loại bỏ Altman diễn ra đồng thời với một đợt chào thầu cho nhân viên của công ty. McCauley nói rằng khi nhân viên của OpenAI bắt đầu đứng về phía Altman và Microsoft nỗ lực khôi phục hiện trạng, hội đồng quản trị cuối cùng đã đảo ngược quá trình, với các thành viên phản đối Altman từ chức. Sự thất bại rõ ràng của hội đồng quản trị phi lợi nhuận trong việc gây ảnh hưởng đến tổ chức vì lợi nhuận đi thẳng vào trường hợp của Musk rằng sự chuyển đổi của OpenAI từ tổ chức nghiên cứu thành một trong những công ty tư nhân lớn nhất trên thế giới đã phá vỡ thỏa thuận ngầm của những người sáng lập tổ chức.

David Schizer, cựu Trưởng khoa của Trường Luật Columbia, người được nhóm của Musk trả tiền để làm nhân chứng chuyên môn, lặp lại những lo ngại của McCauley. “OpenAI đã nhấn mạnh rằng một phần quan trọng trong sứ mệnh của họ là an toàn và họ sẽ ưu tiên an toàn hơn lợi nhuận,” Schizer nói. “Một phần trong đó là tuân thủ nghiêm túc các quy tắc an toàn, nếu một điều gì đó cần phải được xem xét an toàn, thì nó cần phải xảy ra. Vấn đề là vấn đề quy trình.” Với việc AI đã ăn sâu vào các công ty vì lợi nhuận, vấn đề này vượt xa một phòng thí nghiệm duy nhất. McCauley cho biết những thất bại trong quản trị nội bộ tại OpenAI nên là một lý do để chấp nhận sự điều chỉnh mạnh mẽ hơn của chính phủ đối với AI tiên tiến — “[nếu] tất cả chỉ phụ thuộc vào một CEO đưa ra những quyết định đó và chúng ta có lợi ích công cộng bị đe dọa, thì điều đó là rất không tối ưu.”

Khi bạn mua hàng thông qua các liên kết trong bài viết của chúng tôi, chúng tôi có thể kiếm được một khoản hoa hồng nhỏ. Điều này không ảnh hưởng đến tính độc lập biên tập của chúng tôi. Tim Fernholz là một nhà báo viết về công nghệ, tài chính.

aibusinesstechnology

Discussion

Góc nhìn từ cộng đồng

0 bình luận
Chưa có bình luận nào.

Hãy là người đầu tiên thêm một góc nhìn hữu ích để mạch đọc này trở nên sâu hơn.