最近各种基于大模型的AI编程助手层出不穷,确实给编码带来了非常大的帮助,编码效率提升效果明显。比如本站的 链接页面 中就列出了很多种AI编程助手。
不过,一方面,虽然很多AI编程助手号称不会上传本地代码,但始终不太让人放心;另一方面,使用各种编程助手每个月十几二十多美元的成本也是实打实的,而且由于各种各样的原因,搞不好账号还要经常被封禁。
不过随着开源社区的努力,在本地搭建基于大模型的AI编程助手也成为了可能,而且经过一段时间的试用,感觉效果也非常不错。
本文介绍基于VSCode+Ollama以及开源的大模型,搭建本地AI编程助手的方法。
# 1、下载并配置VSCode
下载VSCode并根据个人使用习惯进行基础配置,本文不再细说。
# 2、VSCode安装Continue插件
Continue.dev是一款领先的开源人工智能代码助手工具。它允许用户连接各种模型和上下文信息,以便在VS Code和JetBrains等集成开发环境 (IDE) 中构建定制化的自动补全和聊天体验。
使用 Continue.dev,开发者可以实现以下功能:
- 轻松理解代码段落
- 通过 Tab 键自动完成代码建议
- 在编写代码的过程中重构函数
- 对代码库提出问题并获得解答
- 快速利用文档作为上下文信息
- 使用斜杠命令 (
/
) 触发操作 - 将类、文件等添加到上下文中
- 立即理解终端错误
Continue.dev 支持用户根据任务需求选择合适的模型,无论是开源还是商业模型,本地运行还是远程调用,并且这些模型可用于聊天、自动补全或嵌入式应用。此外,Continue.dev 提供了多种配置选项,使扩展程序能够适应用户的现有工作流程。
# 3、下载安装Ollama
略,可参考 Windows系统本地部署Lobechat+Ollama 文章中的相关步骤。
至于模型的选择,最近新开源的Qwen2.5-coder就不错,可以考虑使用。
另外,网上有的文章说下载完大模型后,需要运行ollama run <model>
命令来把模型运行起来,但实际操作中发现其实并不需要这样做。
# 4、配置Continue.dev插件
注:安装完Continue
插件后,可能需要重启VSCode使插件生效。
# 4.1 配置代码自动完成
之后,重新进入VSCode,点击扩展栏的Continue
插件图标,点击第三个标签Local
,之后点击标签页最下方的config file
链接;
或者直接单击VSCode右下角的Continue
,在VSCode中间上方弹出的选项中点击Configure autocomplete options
,对配置文件进行编辑。
默认情况下,其主要配置如下:
|
|
将其修改为如下内容:
|
|
之后,就可以享用运行在本地的基于大模型的AI编程助手了。