Theo dõi từ 1M AI News, công ty hạ tầng suy luận của AI là Fireworks AI đã phát hành Fireworks Training phiên bản xem trước, mở rộng từ một nền tảng suy luận thuần túy thành nền tảng tích hợp huấn luyện và triển khai. Fireworks AI được thành lập bởi Jolin (Lin Qiao), kỹ sư cựu thành viên tại Meta, người từng tham gia xây dựng PyTorch. Hiện công ty được định giá 4Bỷ USD, khối lượng token xử lý hằng ngày đạt 150 nghìn tỷ.
Nền tảng cung cấp ba cấp độ:
Quy mô huấn luyện toàn tham số từ Qwen3 8B trên một nút đơn đến Kimi K2.5 trên 64 khối NVIDIA B200 (hàng nghìn tỷ tham số).
Khách hàng suy luận sản xuất của Fireworks AI gồm các công cụ lập trình AI như Cursor, Vercel và Genspark đã hoàn tất huấn luyện học tăng cường tiên tiến trên nền tảng này. Vercel đã huấn luyện mô hình tự động sửa lỗi cho sản phẩm tạo mã của họ là v0, tỷ lệ tạo mã không lỗi đạt 93%; CTO Malte Ubl cho biết so với Sonnet 3.5 chỉ là 62%, độ trễ end-to-end so với các mô hình mã nguồn đóng trước đó đã được cải thiện 40 lần. Genspark thực hiện tinh chỉnh học tăng cường mô hình mã nguồn mở Kimi K2 với quy mô hàng nghìn tỷ tham số để xây dựng tác nhân nghiên cứu chuyên sâu; số lần gọi công cụ tăng 33%, chi phí giảm 50%. Cursor phân tán huấn luyện học tăng cường của Composer 2 trên 3 đến 4 cụm trên toàn cầu (hiện xếp hạng #1 trên CursorBench), và việc huấn luyện cùng với suy luận sản xuất dùng chung cùng một nhóm GPU.
Sự khác biệt kỹ thuật cốt lõi mà Fireworks AI nhấn mạnh là tính nhất quán về mặt số giữa huấn luyện và suy luận. Mô hình MoE (hỗn hợp chuyên gia) về mặt số kém ổn định hơn so với mô hình dày đặc (dense); những thay đổi nhỏ trong trạng thái ẩn có thể làm đảo chiều định tuyến chuyên gia và kéo theo sự khuếch đại theo chuỗi. Fireworks công bố giá trị độ phân tán KL giữa huấn luyện và suy luận cho tất cả các mô hình được hỗ trợ, đều thấp hơn 0.01.