Laurel 在 谈论大模型时,我们都在说什么?(01)——从最小二乘到神经网络 中发帖
One step backward, two step forward.
00 前言
承蒙大家对新人分享贴的赞许,我受宠若惊。有许多我借鉴的大佬认可,也有和我一样在赛博世界摸索前行的新人。我再三思索,不如就在L站时不时发一些我的学习笔记,方便各行各业的大佬帮我纠纠错,如果有人能从中获得些新的感悟,那便是我的一点福气了。
上次,我实现了云端反代的部署和cli的配置,从vibe coding的角度来讲,基本已经是完全体的,更多需要的还是一些项目管理的先进经验,对此我推荐这位佬友的实践:
https://linux.do/t/topic/1520127?u=laurel
其中有关opencode的研究,我觉得很受用。
但是正如我开头提到的,这次打算先退一步,一方面是手上没有需要进一步vibe的项目了,另一方面是倍感自己对LLM的理解太过浅薄。因此计划先从算法开始,从我熟悉的最小二乘...