OpenAI bổ sung các công cụ mã nguồn mở giúp nhà phát triển xây dựng ứng dụng an toàn cho thanh thiếu niên
OpenAI hôm thứ Ba cho biết họ đang phát hành một bộ gợi ý (prompt) mà các nhà phát triển có thể sử dụng để làm cho ứng dụng của họ an toàn hơn cho thanh thiếu niên. Phòng thí nghiệm AI này cho biết bộ chính sách an toàn cho thanh thiếu niên có thể được sử dụng với mô hình an toàn mã nguồn mở (open-weight) của họ, được gọi là gpt-oss-safeguard. Thay vì bắt đầu từ đầu để tìm cách làm cho AI an toàn hơn cho thanh thiếu niên, các nhà phát triển có thể sử dụng các gợi ý này để củng cố những gì họ xây dựng. Chúng giải quyết các vấn đề như bạo lực đồ họa và nội dung khiêu dâm, các hình mẫu và hành vi cơ thể có hại, các hoạt động và thử thách nguy hiểm, nhập vai lãng mạn hoặc bạo lực, và hàng hóa và dịch vụ bị giới hạn độ tuổi. Các chính sách an toàn này được thiết kế dưới dạng gợi ý, giúp chúng dễ dàng tương thích với các mô hình khác ngoài gpt-oss-safeguard, mặc dù chúng có thể hiệu quả nhất trong hệ sinh thái của OpenAI. Để viết những gợi ý này, OpenAI cho biết họ đã làm việc với các tổ chức giám sát an toàn AI, Common Sense Media và everyone.ai.
“Các chính sách dựa trên gợi ý này giúp thiết lập một mức sàn an toàn có ý nghĩa trên toàn hệ sinh thái, và vì chúng được phát hành dưới dạng mã nguồn mở, chúng có thể được điều chỉnh và cải thiện theo thời gian,” Robbie Torney, Giám đốc Đánh giá AI & Kỹ thuật số tại Common Sense Media, cho biết trong một tuyên bố. OpenAI lưu ý trong blog của mình rằng các nhà phát triển, kể cả các nhóm có kinh nghiệm, thường gặp khó khăn trong việc chuyển các mục tiêu an toàn thành các quy tắc vận hành chính xác. “Điều này có thể dẫn đến những lỗ hổng trong bảo vệ, thực thi không nhất quán hoặc lọc quá rộng,” công ty viết. “Các chính sách rõ ràng, có phạm vi tốt là nền tảng quan trọng cho các hệ thống an toàn hiệu quả.”
Sự kiện Techcrunch San Francisco, CA | 13-15 tháng 10 năm 2026
OpenAI thừa nhận rằng những chính sách này không phải là một giải pháp cho những thách thức phức tạp của an toàn AI. Nhưng nó được xây dựng dựa trên những nỗ lực trước đây của họ, bao gồm các biện pháp bảo vệ ở cấp độ sản phẩm như kiểm soát của phụ huynh và dự đoán độ tuổi. Năm ngoái, OpenAI đã cập nhật hướng dẫn cho các mô hình ngôn ngữ lớn của mình - được gọi là Model Spec - để giải quyết cách các mô hình AI của họ nên cư xử với người dùng dưới 18 tuổi. Tuy nhiên, bản thân OpenAI không có thành tích tốt nhất. Công ty đang phải đối mặt với một số vụ kiện do gia đình của những người đã chết vì tự tử sau khi sử dụng ChatGPT quá mức đệ trình. Những mối quan hệ nguy hiểm này thường hình thành sau khi người dùng vượt qua các biện pháp bảo vệ của chatbot, và không có rào chắn nào của mô hình là hoàn toàn không thể xuyên thủng. Tuy nhiên, những chính sách này ít nhất là một bước tiến, đặc biệt vì nó có thể giúp các nhà phát triển độc lập.
Amanda Silberling là một nhà văn cấp cao tại TechCrunch chuyên về giao điểm giữa công nghệ và văn hóa. Cô cũng đã viết cho các ấn phẩm như Polygon, MTV, the Kenyon Review, NPR và Business Insider. Cô là người đồng dẫn chương trình của Wow If True, một podcast về văn hóa internet, với tác giả khoa học viễn tưởng Isabel J. Kim. Trước khi gia nhập TechCrunch, cô đã làm việc với tư cách là một nhà tổ chức cơ sở, nhà giáo dục bảo tàng và điều phối viên liên hoan phim. Cô có bằng Cử nhân Văn học Anh của Đại học Pennsylvania và từng là Nghiên cứu sinh Princeton ở Châu Á tại Lào. Bạn có thể liên hệ hoặc xác minh liên hệ từ Amanda bằng cách gửi email đến amanda@techcrunch.com hoặc qua tin nhắn được mã hóa tại @amanda.100 trên Signal.
Góc nhìn từ cộng đồng
Hãy là người đầu tiên thêm một góc nhìn hữu ích để mạch đọc này trở nên sâu hơn.