利用VSCode与Ollama创建基于本地大模型的AI编程助手

最近各种基于大模型的AI编程助手层出不穷,确实给编码带来了非常大的帮助,编码效率提升效果明显。比如本站的 链接页面 中就列出了很多种AI编程助手。

不过,一方面,虽然很多AI编程助手号称不会上传本地代码,但始终不太让人放心;另一方面,使用各种编程助手每个月十几二十多美元的成本也是实打实的,而且由于各种各样的原因,搞不好账号还要经常被封禁。

不过随着开源社区的努力,在本地搭建基于大模型的AI编程助手也成为了可能,而且经过一段时间的试用,感觉效果也非常不错。

本文介绍基于VSCode+Ollama以及开源的大模型,搭建本地AI编程助手的方法。

# 1、下载并配置VSCode

下载VSCode并根据个人使用习惯进行基础配置,本文不再细说。

# 2、VSCode安装Continue插件

Continue.dev是一款领先的开源人工智能代码助手工具。它允许用户连接各种模型和上下文信息,以便在VS Code和JetBrains等集成开发环境 (IDE) 中构建定制化的自动补全和聊天体验。

使用 Continue.dev,开发者可以实现以下功能:

  • 轻松理解代码段落
  • 通过 Tab 键自动完成代码建议
  • 在编写代码的过程中重构函数
  • 对代码库提出问题并获得解答
  • 快速利用文档作为上下文信息
  • 使用斜杠命令 (/) 触发操作
  • 将类、文件等添加到上下文中
  • 立即理解终端错误

Continue.dev 支持用户根据任务需求选择合适的模型,无论是开源还是商业模型,本地运行还是远程调用,并且这些模型可用于聊天、自动补全或嵌入式应用。此外,Continue.dev 提供了多种配置选项,使扩展程序能够适应用户的现有工作流程。

# 3、下载安装Ollama

略,可参考 Windows系统本地部署Lobechat+Ollama 文章中的相关步骤。

至于模型的选择,最近新开源的Qwen2.5-coder就不错,可以考虑使用。

另外,网上有的文章说下载完大模型后,需要运行ollama run <model>命令来把模型运行起来,但实际操作中发现其实并不需要这样做。

# 4、配置Continue.dev插件

注:安装完Continue插件后,可能需要重启VSCode使插件生效。

# 4.1 配置代码自动完成

之后,重新进入VSCode,点击扩展栏的Continue插件图标,点击第三个标签Local,之后点击标签页最下方的config file链接;

或者直接单击VSCode右下角的Continue,在VSCode中间上方弹出的选项中点击Configure autocomplete options,对配置文件进行编辑。

默认情况下,其主要配置如下:

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
  "models": [
    {
      "model": "claude-3-5-sonnet-20240620",
      "provider": "anthropic",
      "apiKey": "",
      "title": "Claude 3.5 Sonnet"
    }
  ],
  "tabAutocompleteModel": {
    "title": "Codestral",
    "provider": "mistral",
    "model": "codestral-latest",
    "apiKey": ""
  },

将其修改为如下内容:

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
  "models": [
    {
      "model": "qwen2.5-coder:14b",
      "provider": "ollama",
      "title": "qwen2.5-coder:14b"
    }
  ],
  "tabAutocompleteModel": {
    "title": "qwen2.5-coder:14b",
    "provider": "ollama",
    "model": "qwen2.5-coder:14b"
  },

之后,就可以享用运行在本地的基于大模型的AI编程助手了。

网站已稳定运行 小时 分钟
使用 Hugo 构建
主题 StackJimmy 设计