风清扬 (@weakchen)今天买了台新PC,本地部署了Open WebUI+Ollama 中发帖

用本地Docker,部署了OpenWebUI 
[image]
同时跑了几个Ollama大模型
[image]
这样就可以在本地调教一些较敏感的以及担心泄密的内容。