这里超详细内网 IDEA 本地大模型插件部署全流程 (基于 Ollama + Continue 插件,零外网依赖、免登录)
这里超详细内网 IDEA 本地大模型插件部署全流程 基于 Ollama Continue 插件零外网依赖、免登录写自定义目录标题基于 Ollama Continue 插件零外网依赖、免登录写自定义目录标题)一、整体方案概览方案核心目标在内网无外网权限的电脑上实现本地运行开源大模型如 Qwen2.5-Coder、DeepSeek-CoderIDEA 中通过 Continue 插件调用模型实现代码生成、优化、问答全程无外网请求、无登录、无数据上传完全内网闭环整体流程路线外网准备 → 安全中转 → 内网部署 Ollama → 配置 IDEA 插件 → 测试使用二、外网准备阶段能上网的电脑操作准备 Ollama 安装文件1下载 Ollama 安装包官网下载地址https://ollama.com/download/windows下载 OllamaSetup.exe保存到外网电脑本地2在外网电脑安装 Ollama 并下载模型双击 OllamaSetup.exe按默认路径安装会装到 C:\Users\你的用户名\AppData\Local\Programs\Ollama打开 CMD验证安装cmdollama --version下载你需要的模型以 qwen2.5-coder:7b 为例cmdollama pull qwen2.5-coder:7b查看模型列表确认下载完成cmdollama list3拷贝 Ollama 程序和模型文件程序目录C:\Users\你的用户名\AppData\Local\Programs\Ollama整个文件夹复制到外网 U 盘模型目录默认在 C:\Users\你的用户名.ollama\models整个文件夹复制到外网 U 盘或提前设置 OLLAMA_MODELS 变量统一存到一个目录2. 准备 IDEA Continue 插件安装包1根据 IDEA 版本下载对应插件插件市场地址https://plugins.jetbrains.com/plugin/24213-continue-ai-code-assistant/versions筛选兼容性选择与你的内网 IDEA 2024.3 完全匹配的版本推荐 1.0.3~1.0.5下载 .zip 格式安装包保存到外网 U 盘三、文件安全中转阶段关键内网合规必备单 U 盘安全中转方法无额外 U 盘也能做1第一步全盘杀毒插上装有文件的外网 U 盘右键 U 盘盘符 → 选择「扫描使用 Microsoft Defender」等待扫描完成确认无病毒、无威胁2第二步备份文件到本地电脑把 U 盘里的 Ollama 程序、模型文件夹、插件 zip 包全部复制到外网电脑的本地磁盘如 D 盘做一个备份。3第三步格式化 U 盘清零右键 U 盘盘符 → 选择「格式化」勾选「快速格式化」文件系统保持默认等待格式化完成U 盘会变成空盘彻底清除外网痕迹4第四步拷回干净文件把备份在本地的干净文件重新复制回空 U 盘此时 U 盘就是完全无外网污染的 “纯净盘”可以安全接入内网电脑。四、内网部署 Ollama 服务阶段复制文件到内网电脑把 U 盘插到内网电脑建议按以下路径复制文件方便管理Ollama 程序D:\Tools\Ollama模型文件D:\Tools\OllamaModels配置 Ollama 环境变量1配置系统变量 Path右键「此电脑」→「属性」→「高级系统设置」→「环境变量」在「系统变量」中找到 Path双击编辑点击「新建」粘贴 Ollama 程序路径plaintextD:\Tools\Ollama点击「确定」保存2配置用户变量 OLLAMA_MODELS在「用户变量」中点击「新建」变量名OLLAMA_MODELS变量值D:\Tools\OllamaModels点击「确定」保存3重启电脑必须环境变量需要重启电脑才能生效。启动 Ollama 服务重启后打开 CMD验证命令是否可用cmdollama --version正常会显示版本号说明环境变量配置成功。启动 Ollama 后台服务cmdollama serve看到 Listening on [::]:11434 即代表服务启动成功默认端口为 11434。新开一个 CMD 窗口验证模型是否加载成功cmdollama list能看到你下载的模型如 qwen2.5-coder:7b说明模型文件识别正常。五、IDEA 离线安装并配置 Continue 插件离线安装 Continue 插件打开内网 IDEA → File → Settings → Plugins点击右上角的 ⚙️ → 选择 Install Plugin from Disk…选中 U 盘里的 Continue 插件 .zip 文件点击「OK」重启 IDEA右侧出现 Continue 图标即代表安装成功。配置 config.yaml 连接内网 Ollama1打开配置文件点击 IDEA 右侧的 Continue 图标点击右上角 ⚙️ → Open Config会自动打开 config.yaml 文件2替换为内网专属配置把文件里的所有内容替换为以下配置仅需修改 apiBase 为你的内网 IPname:Local Configversion:1.0.0schema:v1# 核心模型配置强制指向内网 Ollamamodels:-name:内网本地模型provider:ollamamodel:qwen2.5-coder:7b# 换成你实际的模型名如 deepseek-coder:6.7bapiBase:http://192.168.1.100:11434# 换成你的内网电脑IP:11434contextLength:8192maxTokens:4096roles:-chat-autocomplete# 默认模型设置defaultModel:内网本地模型tabAutocompleteModel:name:内网本地模型provider:ollamamodel:qwen2.5-coder:7bapiBase:http://192.168.1.100:11434# 彻底关闭外网相关功能ui:showScrollbar:truesettings:enableTabAutocomplete:trueenableIndexing:falseenableAnalytics:falseenableErrorReporting:falseenableCloudSync:falseenableTelemetry:falseenableAutoUpdate:false3配置生效保存文件后Continue 会自动加载配置无需重启 IDEA。六、插件设置优化彻底关闭联网请求在 Continue 的 User Settings 界面按以下配置开关避免任何外网请求表格选项 建议状态 说明Show Session Tabs 关闭 减少界面复杂度无实际影响Wrap Codeblocks 开启 代码块自动换行阅读更方便Show Chat Scrollbar 开启 聊天窗口显示滚动条Text-to-Speech Output 关闭 关闭语音朗读功能Enable Session Titles 关闭 避免自动调用模型生成标题减少请求Format Markdown 开启 模型回复按 Markdown 渲染代码更清晰Allow Anonymous Telemetry 关闭 禁止向官方发送匿名数据彻底断网七、测试使用与常见问题排查功能测试在 IDEA 中打开一个代码文件如 .java 文件按 CtrlI 唤起 Continue 对话输入测试指令plaintext帮我写一个Java冒泡排序算法若模型能正常返回代码说明整个流程配置成功。常见问题排查1Continue 连不上 Ollama检查 Ollama 服务是否在运行CMD 窗口是否保持开启用 telnet 内网IP 11434 测试端口是否连通检查防火墙是否放行 11434 端口或临时关闭防火墙测试2模型无法识别确认 OLLAMA_MODELS 环境变量路径正确重启电脑后用 ollama list 再次检查模型是否存在3插件仍弹出登录提示确认 config.yaml 中 enableCloudSync 已设为 false重启 IDEA跳过登录提示直接使用对话功能八、后续维护与优化建议开机自启 Ollama 服务把 Ollama.exe 快捷方式放到 shell:startup 启动目录实现开机自动运行模型文件备份定期备份 D:\Tools\OllamaModels 文件夹避免重装系统后重复下载内网权限控制限制 11434 端口仅内网访问避免未授权请求结语以上就是内网 IDEA 部署 Ollama Continue 插件的完整流程全程无需外网、无需登录完全实现本地大模型在开发环境的闭环使用。如果你遇到任何问题可以随时按排查清单逐一解决