Trong nỗ lực cạnh tranh mạnh mẽ hơn với các đối thủ như Google, OpenAI vừa giới thiệu Flex processing, một tùy chọn API giúp giảm chi phí sử dụng mô hình AI đổi lại thời gian phản hồi chậm hơn và “khả năng tạm ngưng tài nguyên không thường xuyên.”
Flex processing hiện đang trong giai đoạn beta và được áp dụng cho các mô hình o3 và o4-mini của OpenAI. Công nghệ này hướng đến các tác vụ ưu tiên thấp hoặc “không sản xuất” như đánh giá mô hình, làm giàu dữ liệu và xử lý tác vụ không đồng bộ.
Mục lục
Lợi Ích Về Chi Phí
Theo OpenAI, Flex processing giúp giảm 50% chi phí API. Cụ thể, với mô hình o3, giá giảm từ $10 xuống còn $5 cho mỗi triệu token đầu vào và từ $40 xuống $20 cho mỗi triệu token đầu ra. Đối với o4-mini, giá giảm từ $1.10 xuống $0.55 cho mỗi triệu token đầu vào và từ $4.40 xuống $2.20 cho mỗi triệu token đầu ra.
Bối Cảnh Cạnh Tranh
Ra mắt trong bối cảnh chi phí AI đang tăng cao, Flex processing là bước đi chiến lược của OpenAI để đối phó với các mô hình AI tiết kiệm hơn từ đối thủ. Gần đây, Google đã tung ra Gemini 2.5 Flash, một mô hình lý luận có hiệu suất tương đương hoặc vượt trội so với DeepSeek’s R1 nhưng với chi phí thấp hơn.
Yêu Cầu Xác Minh Danh Tính
OpenAI cũng thông báo rằng các nhà phát triển thuộc cấp độ 1-3 trong hệ thống phân cấp sử dụng của họ sẽ phải hoàn thành quy trình xác minh danh tính mới để truy cập vào mô hình o3. Các cấp độ này được xác định dựa trên mức chi tiêu cho dịch vụ của OpenAI.
Quy trình xác minh này nhằm ngăn chặn các hành vi vi phạm chính sách sử dụng của OpenAI, đồng thời đảm bảo an toàn và minh bạch cho hệ thống.
Với Flex processing, OpenAI không chỉ mang đến giải pháp tiết kiệm chi phí mà còn khẳng định vị thế cạnh tranh trong lĩnh vực AI đang phát triển mạnh mẽ.