构建带有 DeepSeek R1 集成的 VS Code 扩展
在今天的视频中,你将学习如何从头开始构建一个 VS Code 扩展,将 DeepSeek R1(一个低成本的开源推理模型)集成到你自己的自定义 AI 助手中。在这篇教程的最后,你将可以取消你的 200 美元 ChatBT Pro 订阅,体验到开源自由的甜蜜滋味。
DeepSeek R1 概述
DeepSeek R1 是一个强大的开源推理模型,功能与 Open AI 的模型相当。然而,如果你使用网络 UI,你将同意将你的提示、按键和数据发送到中国。为了绕过这一点,你可以本地运行该模型,这样不需要互联网连接。这正是你将在本教程中学到的内容。
构建带有 DeepSeek R1 集成的 VS Code 扩展
构建 VS Code 扩展
要开始构建扩展,你需要使用官方的 VS Code 起始模板创建一个新项目。该模板包括扩展的基本结构,包括一个 extension.ts
文件,该文件导入了全局 VS Code 对象。该对象提供了对整个 VS Code API 的访问,允许你自定义编辑器中的任何内容。
本地运行扩展
创建项目后,你可以使用 npx
命令本地启动扩展。这将引导你完成一系列问题,但你可以选择默认选项。之后,你将拥有一个基本的扩展并运行起来。
生成项目
要生成项目,你需要使用带有 --generate
标志的 npx
命令。这将创建一个带有扩展基本结构的新项目。
自定义扩展
现在你有了一个基本的扩展并运行起来,可以开始对其进行自定义。你可以注册一个命令,该命令在触发时将执行一个回调函数。这个回调函数可以使用 VS Code 窗口显示错误消息或执行其他操作。
集成 DeepSeek R1
要将 DeepSeek R1 集成到你的扩展中,你需要使用一个名为 Ollama 的工具。Ollama 是一个允许你下载和运行开源 AI 模型的工具,包括 DeepSeek R1。
创建聊天对话框
要创建聊天对话框,你需要定义一个生成聊天窗口 HTML 内容的函数。该函数将包括一个文本区域和一个按钮,按钮将发送用户输入到 DeepSeek R1 模型。
连接到 DeepSeek R1 模型
要连接到 DeepSeek R1 模型,你需要使用 Ollama API。该 API 提供了一种向模型发送输入并接收响应输出的方法。
结论
总之,构建带有 DeepSeek R1 集成的 VS Code 扩展是一个有趣且有成就感的项目。通过遵循本教程中的步骤,你可以创建一个在本地机器上运行的自定义 AI 助手。通过这个扩展,你可以体验到开源自由的甜蜜滋味,并取消你的 200 美元 ChatBT Pro 订阅。感谢你的观看,我们在下一个视频中见!