groq试用测试
目录
测试了groq下,速度是很快,中文的推理 准确快,不过准确度一般。
开发者可在groq官网上申请免费试用,也可以在Poe上免费体验Groq。
目前提供Llama-70B-4K和Mixtral-8x7B-32K两种超大尺寸的模型供选择,推理API完全兼容OpenAI的API。
令用户惊叹的是,基于Groq LPU的AI推理速度相当炸裂,比如在问答场景中,使用Llama 70B模型,用户从提问到收到回答几乎没有感受不到延迟,首词输出的时延仅有0.2秒,500多个单词在大约一秒的时间内全部生成,而相同数量的内容,ChatGPT需要近10秒才能生成完,首词输出更是以秒计。
具体到吞吐指标,Groq给出一组对比数据,如下图所示,与行业内优秀选手相比,Groq LPU大约领先10倍左右,完全吊打基于英伟达GPU的推理产品。
groq 测试结果见下图:
1 Mixtral 8x7B-32K模型 测试:

2 groq-Llama 2 70B-4k测试:
