DeepSeek的环境变量如何设置?
DeepSeek作为一款高性能的AI开发工具,在使用前对环境变量进行适当的设置,可以确保其更稳定、高效的运行,以下是关于如何设置DeepSeek相关环境变量的详细指南:

-
OLLAMA_MODELS:
- 这个环境变量用于指定模型文件的存放目录。
- 默认值通常是当前用户的目录,但在Windows系统中,为了避免C盘空间不足,建议修改到其他盘符,如
D:\models。 - 在Linux或MacOS中,也可以根据需要选择一个合适的目录。
-
OLLAMA_HOST:
- 此环境变量定义了Ollama服务监听的网络地址。
- 默认值是
0.0.1,意味着服务只在本地监听。 - 如果需要允许局域网中的其他电脑访问,可以设置为
0.0.0。
-
OLLAMA_PORT:
- 这是Ollama服务监听的端口。
- 默认端口是
11434,但如果这个端口与其他服务冲突,可以选择其他端口,如8080。
-
OLLAMA_ORIGINS:
- 这个环境变量用于定义HTTP客户端请求的来源。
- 如果是在本地使用,并且没有严格的安全要求,可以设置为,表示不受限制。
-
OLLAMA_KEEP_ALIVE:
- 它决定了大模型加载到内存中后的存活时间。
- 默认值是
5m(5分钟),但为了提高访问速度,可以设置为24h,让模型在内存中保持24小时。
-
OLLAMA_NUM_PARALLEL:
- 这个变量定义了请求处理的并发数量。
- 默认是
1,表示单并发串行处理请求,根据实际需求,可以适当调整这个值。
-
OLLAMA_MAX_QUEUE:
- 它表示请求队列的长度。
- 默认值是
512,如果请求超过这个长度,多余的请求将被抛弃。
-
OLLAMA_DEBUG:
- 用于输出Debug日志标识。
- 在应用研发阶段,可以设置为
1以输出详细的日志信息,便于排查问题。
-
OLLAMA_MAX_LOADED_MODELS:
- 定义了最多同时加载到内存中的模型数量。
- 默认是
1,即只能有一个模型在内存中,根据硬件资源,可以适当增加这个值。
为了确保DeepSeek的稳定运行和高效性能,建议根据实际情况对上述环境变量进行合理设置,定期检查和调整这些设置也很重要,以此保持与您的硬件和工作负载的最佳匹配。
-
喜欢(0)
-
不喜欢(0)

