@ObsidianOOO各位佬友每人来说一下GPT的缺点吧 中发帖

前言

前段时间,本人写了个SKILL,专门用于治理Vibe Coding理解偏差、一句话开发、长任务等内容。(link to : [开源]一次harness engineering规范与专注于长任务的vibe coding尝试skill - 开发调优 - LINUX DO)
虽然有给codex专用版本,但是实际测试下来发现,codex表现依旧拉跨。故开此贴,收集各位佬友在vibe code时,GPT出乎意料,偏移的一些问题。专门去做一个codex的skill

我先来:



前端能力拉跨,若需要完美的前端,你需要一个特别特别精确的提示词。详细到一个按钮该布局到哪里?这个按钮怎么动?等等…(本文不讨论已存在解决相对应问题的SKILL,仅仅讨论模型本身缺陷)




Vibe Coding情况下,很难把控一些东西,例如在一个完全是小白的情况下,让他开发一个东西,他会不停的问不停的问,...