@wrengroq 已经上了 llama3.2的vision模型 中发帖

前几天看到ollama正式版已经上了llama3.2的vision模型. 本地跑有点吃力,我刚才想看看哪家提供了此模型.正好看到groq上面有啊.美滋滋. 
测试结果:
curl 一张在线图片 模型是llama3.2那个11b的.
[图片]
速度很快,请求后啪一下就返回了.
下面列一下个groq的模型列表:
[图片]
具体vision模型的介绍:
[图片]
我的本地只能跑11b的vision模型,直接享受在线90b. 鸡你太美啊.
想体验的快去看自己的API key吧.
目前我测试chatbox内置的groq配置没有vision模型,我手动添加的报错了.