跳转到内容

快速入门

前提条件

在开始使用 Twinny 之前,您需要访问推理提供商。推理提供商是本地或云托管的服务器,用于运行 AI 模型。

推荐的方式是使用 Ollama。Ollama 可以轻松地在本地运行您的模型,并将它们暴露为兼容 OpenAI 的 API。性能将取决于您的硬件和所选择的模型,更多信息请参阅 Ollama 的文档。

安装扩展

  1. Visual Studio Code 扩展市场 或 VSCodium 的 扩展市场 中安装 Twinny 扩展。

安装 Ollama 作为推理提供商

  1. 访问 安装 Ollama,并按照说明在您的机器上安装 Ollama。
  2. 从 Ollama 提供的模型列表中选择一个模型。两个推荐的入门模型是 codellama:7b-instruct 用于聊天和 codellama:7b-code 用于填充中间部分。更多选项请参阅 支持的模型页面
Terminal window
ollama run codellama:7b-instruct
ollama run codellama:7b-code

安装完扩展和 Ollama 后,您可以开始使用 Twinny。

  1. 打开 VS Code(如果已打开,安装后可能需要重启),在侧边面板中查找 Twinny 图标。

您还应看到 🤖 图标,表示 Twinny 已准备就绪。当 Twinny 正在向推理提供商发起请求时,图标会变成旋转的加载标志。