Groq là một nền tảng inference AI tốc độ cao được phát triển bởi Groq, Inc., được thiết kế đặc biệt để tối ưu hóa hiệu suất và giảm chi phí. Nền tảng này sử dụng LPU (Language Processing Unit) tùy chỉnh, được xây dựng tại Hoa Kỳ với chuỗi cung ứng ổn định, đảm bảo hiệu suất nhất quán ở quy mô lớn. GroqCloud, nền tảng full-stack của Groq, cung cấp inference nhanh chóng, giá cả phải chăng và sẵn sàng cho sản xuất. Điểm nổi bật của Groq là khả năng duy trì độ trễ thấp dưới mili giây ngay cả khi lưu lượng truy cập tăng cao, đồng thời đảm bảo chất lượng mô hình ở mọi quy mô. Với Groq, người dùng có thể chạy nhiều hơn, chi ít hơn mà không cần phải thỏa hiệp về tốc độ, chất lượng hay khả năng kiểm soát.