Config.py 配置指南¶
大模型配置¶
llm_api_impl:大模型API接口实现- 默认
llm_api_default使用UnionLLM进行多模型支持,UnionLLM兼容LiteLLM, 支持模型和参数配置方式参见:UnionLLM仓库和LiteLLM文档。 - 主流模型只需要修改
api_config即可接入,无需修改该参数 - 实现默认不支持的大模型接入,可实现
AbstractApi接口,并将类名传入该参数。 api_config: 大模型API配置
除必选参数外,其他参数根据模型需求填写,具体模型对应的参数参见LiteLLM文档以及UnionLLM仓库-DOC目录中相应模型部分。具体而言:
国外模型请查找LiteLLM文档,并将
LiteLLM示例中litellm.completion内的参数填写到api_config中,若示例需要通过环境变量鉴权,也请填写到api_config中。国内模型请查找UnionLLM仓库-DOC目录,并将
UnionLLM示例中unionchat内的参数填写到api_config中,若示例需要通过环境变量鉴权,也请填写到api_config中。 - 必选参数 -model传入模型名称 -provider传入模型提供商 - 常用可选参数 -api_base传入API地址 -api_key传入API密钥 - 其他可选参数 -max_tokens设置生成文本的最大长度 -temperature控制生成文本的随机性 -top_p控制生成文本的多样性 -n设置生成的文本数量 -logprobs返回生成文本的对数概率 -stream是否以流式方式返回生成结果 -stop设置生成文本的停止标记 -presence_penalty控制生成文本中重复内容的惩罚 -frequency_penalty控制生成文本中频繁出现内容的惩罚 -best_of从多次生成中选择最佳结果 -logit_bias调整生成文本中某些词的概率 -api_url传入API地址 -api_version传入API版本 -extra_headers传入额外的HTTP头信息 - 其他参数请参考上述文档 - 该配置会自动传给llm_api_impl的set_config方法,用于初始化大模型API。
示例¶
DeepSeek¶
ChatGPT¶
# 直接传入
api_config = {
"api_key": "your openai key",
"api_base": "https://api.openai.com/v1",
"model": "gpt-3.5-turbo",
"provider": "openai",
}
# 通过环境变量传入
api_config = {
"OPENAI_API_KEY": "your openai key",
"OPENAI_API_BASE": "https://api.openai.com/v1",
"model": "gpt-3.5-turbo",
"provider": "openai",
}
Ollama¶
Gitlab配置¶
GitLab 服务器地址与访问令牌通过后台的 GitLab 配置 页面写入 GitLabConfig 表,系统仅读取数据库中的激活记录。
- server_url: GitLab 实例地址
- private_token: 用于访问 API 的 Token
- is_active: 控制是否为当前生效配置(仅允许单条激活)
- maximum_files: GitLab Merge Request 最大文件数(可选)
消息通知配置¶
dingtalk_webhook: 钉钉机器人Webhookdingtalk_secret: 钉钉机器人密钥