部署和使用指南
本指南提供完整的部署和使用说明,帮助您设置后端服务并在VSCode、Eclipse和IntelliJ中使用相应的插件。这个解决方案基于vLLM提供AI编码辅助,支持英语、中文和日文。
前提条件
- 操作系统:Linux、macOS或Windows(推荐Linux以获得最佳vLLM性能)。
- 硬件:GPU(推荐NVIDIA,至少8GB VRAM)以运行vLLM模型。
- 软件:
- Python 3.10+(后端服务)。
- Node.js(VSCode扩展开发,可选)。
- Java JDK 11+(Eclipse和IntelliJ插件)。
- Hugging Face账号(下载模型)。
- 模型:示例使用
codellama/CodeLlama-7b-Python-hf
,可以替换为其他代码模型。
1. 后端服务部署
步骤1:克隆仓库并安装依赖
假设有一个项目目录:
git clone <your-repo> # 或手动创建backend目录
cd backend
pip install -r requirements.txt
步骤2:配置环境变量
在 server.py
中,设置 MODEL_NAME
环境变量:
export MODEL_NAME="codellama/CodeLlama-7b-Python-hf" # 或其他模型
步骤3:启动服务
python server.py
- 服务将在
http://0.0.0.0:8000
运行。 - 检查健康:访问
http://localhost:8000/api/health
,应返回"status": "healthy"
。
步骤4:多语言配置
- 服务自动根据请求头
Accept-Language
切换语言。 - 支持
en
、zh-CN
、ja
。如果未匹配,回退到英文。
故障排除
- 模型加载失败:确保GPU可用和Hugging Face token设置(如果需要私有模型)。
- 端口占用:修改
uvicorn.run
中的端口。 - 依赖问题:使用虚拟环境
venv
安装。
2. VSCode扩展安装和使用
安装
- 打开VSCode,导航到扩展视图。
- 搜索 “Coding Agent”(或从源代码打包:
vsce package
生成.vsix
文件,然后安装)。 - 安装后,重启VSCode。
使用
- 命令:
Agent: Complete Code
(Ctrl+Shift+Space):在光标处补全代码。Agent: Generate Code
(Ctrl+Shift+G):输入描述生成代码。Agent: Explain Code
(Ctrl+Shift+E):解释选中文本。Agent: Refactor Code
(Ctrl+Shift+R):重构选中文本。Agent: Debug Code
(Ctrl+Shift+D):调试整个文档。Agent: Generate Tests
(Ctrl+Shift+T):为选中文本生成测试。
- 状态栏:显示连接状态。如果显示 “Cannot connect”,检查后端服务。
- 语言:自动基于VSCode设置切换(en, zh-CN, ja)。
配置
- 编辑
settings.json
:无额外配置,后端URL固定为http://localhost:8000
。
3. Eclipse插件安装和使用
安装
- 从源代码构建:使用Eclipse PDE导出插件JAR。
- 在Eclipse中:Help > Install New Software > Add > Local > 选择JAR。
- 重启Eclipse。
使用
- 菜单:Coding Agent > [命令]。
- 快捷键:如 Ctrl+Shift+Space 用于补全。
- 命令 与VSCode类似:补全、生成、解释、重构、调试、生成测试。
- 输出:结果显示在消息对话框或新编辑器中。
- 语言:基于系统Locale自动切换。
配置
- 后端URL在
ApiClient.java
中硬编码,可修改为自定义。
4. IntelliJ插件安装和使用
安装
- 从源代码构建:使用Gradle
gradle build
生成ZIP。 - 在IntelliJ中:Settings > Plugins > Install Plugin from Disk > 选择ZIP。
- 重启IntelliJ。
使用
- 右键菜单:Coding Agent > [命令]。
- 命令 与其他IDE类似。
- 输出:使用弹出窗口显示解释/调试结果。
- 语言:基于系统语言自动切换。
配置
- 添加OkHttp依赖到
build.gradle
:dependencies { implementation "com.squareup.okhttp3:okhttp:4.10.0" }
- 后端URL在
ApiClient.java
中硬编码。
5. 总体使用说明
- 启动顺序:先启动后端服务,再打开IDE。
- 多语言支持:插件和后端会根据系统/IDE语言自动适应。提示和响应会相应本地化。
- 自定义:
- 更改模型:在
server.py
中修改MODEL_NAME
。 - 添加语言:扩展
locales
目录和i18n逻辑。
- 更改模型:在
- 性能提示:对于大型模型,确保GPU内存充足。调整
max_tokens
以控制响应长度。 - 安全注意:这是一个本地服务,无需互联网,但确保模型许可合规。
6. 故障排除
- 连接失败:检查防火墙、端口8000是否开放,后端日志。
- 模型错误:验证vLLM版本兼容模型。
- 语言不匹配:手动设置系统语言或请求头。
- 插件不响应:检查控制台日志,重启IDE。
如果遇到问题,请检查日志或扩展代码。未来可以添加更多功能,如自定义提示或更多IDE支持。