Kyle (@kyc)请教Open WebUI支持远程服务端配置一个调用客户端本机的模型吗 中发帖

现状:在服务器部署了一个Open WebUI,然后在Mac本机上用ollama安装了几个模型 
尝试:网上的教程都是Mac本机再装一套docker部署一套Open WebUI,搜索了一圈木有服务端-本机分开的这种类似场景
问题:想请教各位大佬,有什么方法可以配置打开服务器上的页面,但是后端可以自动读取用户访问这一段本机的模型吗?