Anthropic trao cho Claude Code nhiều quyền kiểm soát hơn, nhưng vẫn giữ dây cương
Nguồn ảnh: Jagmeet Singh / TechCrunch 2:00 PM PDT · 24 tháng 3, 2026
Đối với các nhà phát triển sử dụng AI, "lập trình theo cảm hứng" hiện nay đồng nghĩa với việc phải trông nom từng hành động hoặc chấp nhận rủi ro để mô hình hoạt động không kiểm soát. Anthropic cho biết bản cập nhật mới nhất cho Claude nhằm mục đích loại bỏ sự lựa chọn đó bằng cách cho phép AI tự quyết định những hành động nào là an toàn để thực hiện - với một số giới hạn. Động thái này phản ánh một sự thay đổi rộng lớn hơn trong toàn ngành, khi các công cụ AI ngày càng được thiết kế để hành động mà không cần chờ sự chấp thuận của con người. Thách thức là cân bằng giữa tốc độ và quyền kiểm soát: quá nhiều biện pháp bảo vệ sẽ làm chậm quá trình, trong khi quá ít có thể khiến hệ thống trở nên rủi ro và khó đoán.
"Chế độ tự động" mới của Anthropic, hiện đang ở bản xem trước nghiên cứu - có nghĩa là có sẵn để thử nghiệm nhưng chưa phải là sản phẩm hoàn chỉnh - là nỗ lực mới nhất của công ty để tìm ra sự cân bằng đó. Chế độ tự động sử dụng các biện pháp bảo vệ AI để xem xét từng hành động trước khi thực hiện, kiểm tra các hành vi rủi ro mà người dùng không yêu cầu và các dấu hiệu của tấn công chèn lệnh (prompt injection) - một loại tấn công trong đó các hướng dẫn độc hại được ẩn trong nội dung mà AI đang xử lý, khiến nó thực hiện các hành động không mong muốn. Bất kỳ hành động an toàn nào sẽ được tiến hành tự động, trong khi những hành động rủi ro sẽ bị chặn. Về cơ bản, nó là một phần mở rộng của lệnh "dangerously-skip-permissions" hiện có của Claude Code, lệnh này trao toàn bộ quyền ra quyết định cho AI, nhưng có thêm một lớp an toàn ở trên.
Tính năng này được xây dựng dựa trên làn sóng các công cụ lập trình tự động từ các công ty như GitHub và OpenAI, có thể thực hiện các tác vụ thay mặt cho nhà phát triển. Nhưng nó tiến thêm một bước nữa bằng cách chuyển quyết định về thời điểm yêu cầu quyền từ người dùng sang chính AI.
Anthropic chưa tiết lộ chi tiết các tiêu chí cụ thể mà lớp an toàn của họ sử dụng để phân biệt hành động an toàn với hành động rủi ro - điều mà các nhà phát triển có thể sẽ muốn hiểu rõ hơn trước khi áp dụng rộng rãi tính năng này. (TechCrunch đã liên hệ với công ty để biết thêm thông tin về vấn đề này.)
Chế độ tự động ra mắt sau khi Anthropic giới thiệu Claude Code Review, công cụ đánh giá mã tự động được thiết kế để phát hiện lỗi trước khi chúng xâm nhập vào cơ sở mã và Dispatch for Cowork, cho phép người dùng gửi tác vụ cho các tác nhân AI để xử lý công việc thay mặt họ.
Techcrunch event San Francisco, CA | 13-15 tháng 10, 2026
Chế độ tự động sẽ được triển khai cho người dùng Enterprise và API trong những ngày tới. Công ty cho biết hiện tại nó chỉ hoạt động với Claude Sonnet 4.6 và Opus 4.6, đồng thời khuyến nghị sử dụng tính năng mới trong "môi trường biệt lập" - các thiết lập hộp cát được giữ tách biệt với các hệ thống sản xuất, hạn chế thiệt hại tiềm tàng nếu có sự cố xảy ra.
Chủ đề
Rebecca Bellan là phóng viên cấp cao tại TechCrunch, nơi cô đưa tin về các xu hướng kinh doanh, chính sách và mới nổi định hình trí tuệ nhân tạo. Các tác phẩm của cô cũng đã xuất hiện trên Forbes, Bloomberg, The Atlantic, The Daily Beast và các ấn phẩm khác. Bạn có thể liên hệ hoặc xác minh thông tin liên lạc từ Rebecca bằng cách gửi email đến rebecca.bellan@techcrunch.com hoặc qua tin nhắn được mã hóa tại rebeccabellan.491 trên Signal.
Xem tiểu sử
Góc nhìn từ cộng đồng
Hãy là người đầu tiên thêm một góc nhìn hữu ích để mạch đọc này trở nên sâu hơn.