本文介绍一下如何使用 api-for-open-llm 项目来部署和调用开源大型语言模型。此项目提供了一种方法,使得开源模型能以与 OpenAI ChatGPT API 类似的方式被调用,并且支持流式响应、文本嵌入模型、langchain 开发工具等多种功能。
api-for-open-llm
项目具备以下特性(复制自官网):
- ✨ 以 OpenAI ChatGPT API 的方式调用各类开源大模型
- 🖨️ 支持流式响应,实现打印机效果
- 📖 实现文本嵌入模型,为文档知识问答提供支持
- 🦜️ 支持大规模语言模型开发工具 langchain 的各类功能
- 🙌 只需要简单的修改环境变量即可将开源模型作为 chatgpt 的替代模型,为各类应用提供后端支持
- 🚀 支持加载经过自行训练过的 lora 模型
- ⚡ 支持 vLLM 推理加速和处理并发请求
首先,您需要从 GitHub 克隆 api-for-open-llm
仓库到本地,并进入项目目录:
复制 .env.example
文件为 .env
,然后根据需要修改环境变量:
将 server.py
文件复制到当前目录,并使用 Python 启动服务:
Qwen 模型配置
Yi-Chat 模型配置