uru 在 模型参数量大就一定好吗? 中发帖
在Llama3.1 405b刚出来的时候,YouTube和别的平台都说这个模型完全超越GPT 4o
但是呢,这段时间用下来,居然觉得连236b参数的DeepSeek都不如 :tieba_087:
所以 模型参数量大就一定好吗?