eugene (@eugeneL) 在 今天想了一个测试模型泛化能力的case 中发帖
众所周知现在针对场景训练的情况很严重,经常出现flash超pro的搞笑情况,很多厂商不具备测试泛化能力的能力,或者没有能力实现,造成高分低能,用blender python脚本测试的话,不至于脱离实际应用。场景又几乎不会针对训练,大家通过观察小熊的效果可以直观的看出来模型的能力,因为通过python实现也能体现模型的编程能力
ps: 编写出不报错的脚本就是第一道坎
大家可以看一下结果还是符合大家的一般直觉的
# task 编写blender4.5 python 脚本,执行后 会往场景内添加一只小熊
## 会跳舞
## 有合理材质
## 尽可能可爱
以下是额外加分选项(大部分模型prompt复杂之后会瞎编api,导致直接报错)
## 具备合适的摄像机位置以及朝向
## 具备合理的骨骼
## 具备合适的灯光
gemini flash
[flash]
gemini pro
...