Nguồn: OpenAI
Tóm tắt
OpenAI công bố chương trình Bug Bounty tập trung vào rủi ro sinh học (Bio Bug Bounty) cho mô hình GPT-5.5. Đây là chương trình thưởng dành cho các nhà nghiên cứu bảo mật phát hiện những cách mà mô hình có thể bị khai thác để hỗ trợ tạo ra vũ khí sinh học hoặc cung cấp thông tin nguy hiểm liên quan đến sinh học.
Chương trình phản ánh cách tiếp cận proactive safety của OpenAI — thay vì chờ lỗ hổng bị phát hiện sau khi deploy, họ chủ động mời cộng đồng nghiên cứu tìm và báo cáo. Điều này đặc biệt quan trọng với các mô hình ngày càng mạnh, nơi capability dual-use (vừa hữu ích vừa có thể gây hại) là mối lo ngại chính của cộng đồng AI safety.