[Docs] Feedback for self-hosting/environment-variables/model-provider
关于此文档没有LM Studio 相关的环境变量示例
#7462
Labels
📝 Documentation
Improvements or additions to documentation | 文档问题
📝 Reference
https://github.com/lobehub/lobe-chat/tree/main/docs/self-hosting/environment-variables/model-provider.zh-CN.mdx
🐛 Feedback
在本地使用 docker 部署了1.80.2 的 BD 版本,已成功在 env中配置了ollama,DeepSeek 等服务商,但是发现文档中没有关于如何配置LM Studio的示例说明,尝试用以下形式注入后没有生效:
ENABLED_LM_STUDIO=1
LM_STUDIO_PROXY_URL=http://169.888.88.91:8816/v1
LM_STUDIO_MODEL_LIST=deepseek-r1-distill-qwen-7b
请问是否支持在环境配置中设定默认的LM 模型?
如果可以请问应该怎么写入?
补充:同时开启 ollama 会不会发生冲突导致的不能生效了?
The text was updated successfully, but these errors were encountered: