Hai mô hình mới mang tên gpt-oss-120b và gpt-oss-20b, có trọng số mở và chỉ xử lý văn bản. Chúng được thiết kế như những lựa chọn chi phí thấp để các nhà phát triển, nhà nghiên cứu và công ty có thể dễ dàng chạy và tùy chỉnh.
"Chúng tôi rất vui khi đưa mô hình mới - kết quả của hàng tỷ USD nghiên cứu - đến với thế giới, nhờ đó AI sẽ tới tay càng nhiều người càng tốt", CEO OpenAI Sam Altman chia sẻ ngày 5/8.

Sam Altman, CEO OpenAI. Ảnh: TechCrunch
Mô hình trọng số "mở" là mô hình công khai các tham số dùng trong quá trình đào tạo, cho phép người khác tải xuống và sửa đổi. Nó mang lại tính minh bạch và khả năng kiểm soát, nhưng khác với mô hình mã nguồn mở, vốn công khai toàn bộ mã nguồn. Một số công ty công nghệ, như Meta, Mistral AI và startup Trung Quốc DeepSeek cũng phát hành mô hình trọng số mở trong vài năm gần đây.
Theo TechCrunch, OpenAI đặt mục tiêu đưa sản phẩm của mình lên vị trí dẫn đầu trong số các mô hình AI trọng số mở. Tuy nhiên, chúng đang gặp hiện tượng ảo giác nhiều hơn đáng kể so với hai mô hình lý luận mới nhất của công ty là o3 và o4-mini.
Trên Codeforces - bài kiểm tra lập trình cạnh tranh, gpt-oss-120b và gpt-oss-20b lần lượt đạt 2.622 và 2.516 điểm, vượt qua R1 của DeepSeek nhưng thấp hơn o3 và o4-mini. Trong bài kiểm tra đa lĩnh vực Humanity's Last Exam (HLE), gpt-oss-120b và gpt-oss-20b đạt mức 19% và 17,3%, kém o3 nhưng tốt hơn những mô hình mở hàng đầu từ DeepSeek và Qwen.
Việc phát hành mô hình trọng số mở của OpenAI được nhiều người mong đợi, một phần do công ty đã nhiều lần trì hoãn ra mắt. Trong một bài đăng trên X hồi tháng 7, Sam Altman thông báo công ty cần thời gian "chạy thêm bài kiểm tra an toàn và đánh giá những phần rủi ro cao".
"OpenAI đã cho thế giới thấy có thể xây dựng những gì trên nền tảng AI của Nvidia, và giờ họ thúc đẩy sự đổi mới trong phần mềm nguồn mở", CEO Nvidia Jensen Huang nhận xét.
Ngày 5/8, OpenAI cũng thông báo đã tiến hành đào tạo và thử nghiệm an toàn sâu rộng trên hai mô hình trọng số mở. Công ty lọc bỏ dữ liệu hóa học, sinh học, phóng xạ và hạt nhân độc hại trong quá trình tiền huấn luyện, đồng thời mô phỏng cách kẻ xấu cố gắng tinh chỉnh mô hình cho mục đích sai lệch.
Người dùng có thể tải xuống các trọng số cho gpt-oss-120b và gpt-oss-20b trên nhiều nền tảng như Hugging Face, GitHub. Hai mô hình có thể chạy trên máy tính cá nhân thông qua những chương trình như LM Studio và Ollama. Nhà cung cấp dịch vụ đám mây Amazon, Baseten, Microsoft cũng đang cung cấp gpt-oss-120b và gpt-oss-20b. Cả hai đều có thể lý luận nâng cao, sử dụng công cụ và xử lý chuỗi suy nghĩ, đồng thời được thiết kế để chạy ở mọi nơi - từ phần cứng tiêu dùng đến đám mây hay ứng dụng trên thiết bị. Ví dụ, người dùng có thể chạy gpt-oss-20b trên laptop và sử dụng mô hình này như một trợ lý cá nhân giúp tra cứu, ghi chép.
Thu Thảo (Theo CNBC, TechCrunch)