# Microi.OpenClaw **Repository Path**: microi-net/microi.openclaw ## Basic Information - **Project Name**: Microi.OpenClaw - **Description**: 🦞OpenClaw 吾码小龙虾,国内网络直连 · 无需额外网络工具 · 一键部署全套 AI 环境 · 秒级接入主流大模型。OpenClaw一站式本地桌面管理平台,基于 Electron + Vue 3 构建,支持 Windows / macOS / Linux 全平台。无论你是技术小白还是资深开发者,打开即用,零门槛搭建属于自己的私有 AI 智能助手,5 分钟内让 AI 为你工作。 - **Primary Language**: Unknown - **License**: MIT - **Default Branch**: master - **Homepage**: https://microi.net - **GVP Project**: No ## Statistics - **Stars**: 11 - **Forks**: 5 - **Created**: 2026-03-13 - **Last Updated**: 2026-03-16 ## Categories & Tags **Categories**: ai **Tags**: openclaw, AI ## README # 🦞 Microi.OpenClaw 吾码小龙虾 > **让每一个人都能轻松拥有自己的 AI 智能助手** > > 国内网络直连 · 无需额外网络工具 · 一键部署全套 AI 环境 · 秒级接入主流大模型

--- ## 📖 简介 **Microi.OpenClaw 吾码小龙虾** 是 [OpenClaw](https://github.com/openclaw/openclaw) 的 **一站式本地桌面管理平台**,基于 Electron + Vue 3 构建,支持 Windows / macOS / Linux 全平台。 无论你是技术小白还是资深开发者,打开即用 —— 零门槛搭建属于自己的私有 AI 智能助手,全程 **国内网络直连**,内置加速镜像,无需任何额外网络工具,一键完成 Node.js + OpenClaw + Git 全套环境安装,5 分钟内让 AI 为你工作。 >* Gitee开源地址:[https://gitee.com/microi-net/microi.openclaw](https://gitee.com/microi-net/microi.openclaw) ### 为什么选择吾码小龙虾? | 痛点 | 吾码小龙虾怎么解决 | |---|---| | 😖 环境配置太复杂,不知道装什么 | **一键安装**全套依赖,无需手动配置任何环境变量 | | 🌐 国内访问 npm / GitHub 速度慢 | 内置**国内加速镜像**,所有资源均可直连下载 | | 🤖 大模型 API 不知道怎么接 | 内置主流模型**一键模板**,填入 API Key 即可使用 | | 🔒 担心数据安全,不想用云端服务 | **完全本地运行**,对话数据不经过任何第三方服务器 | | 🛠️ 想扩展 AI 能力但不会开发 | 可视化**插件市场**,微信机器人/语音通话等一键安装 | ### 核心功能 | 功能 | 说明 | |---|---| | 🚀 一键部署 | 全自动下载安装 Node.js 22 便携版 + OpenClaw CLI + MinGit,**全程国内加速镜像**,无需手动配置任何环境变量,3 分钟完成全套部署 | | 💬 AI 对话 | 内置高颜值聊天界面,与 AI 实时对话,支持流式输出(SSE),对话数据**完全本地存储**,绝不上传第三方 | | 🤖 多模型接入 | 内置主流模型一键模板,**DeepSeek-V3、通义千问(Qwen)、MiniMax、Ollama 本地模型**、GPT-4o、Claude 等一键切换,填入 API Key 即用 | | ▶️ 服务管理 | 可视化启动/停止/重启 OpenClaw 小龙虾网关,实时进程日志 · 就绪状态检测 · CPU/内存/网络全维度监控 | | ⚙️ 配置编辑 | 可视化编辑 openclaw.json,支持表单模式 + JSON 源码双模式 + 模型模板快选,改完即生效 | | 🌍 浏览器自动化 | 为 AI 赋予「眼睛和手」,配置 Chromium/Chrome 路径,支持 headless/headed 模式,让 AI 能操控浏览器 | | 🔗 远程连接 | 接入 [Microi 吾码低代码平台](https://microi.net),实现云端统一管理多节点,企业级多机部署方案 | ### 🧩 插件管理(核心亮点) 通过可视化插件市场,**一键安装**即可为 AI 赋予各种平台的交互能力: - 🤖 **微信 AI 机器人** — 自动监控私信/群消息、智能回复、群管理,解放双手(`@icesword760/openclaw-wechat`) - 📢 **全平台内容分发** — 文章/消息一键同步推送到微信、Teams、Matrix、Nostr 等多个渠道 - 📞 **AI 语音通话** — 接入实时语音对话,打电话也能 AI 接待(`@openclaw/voice-call`) - 👥 **Microsoft Teams / Matrix / Nostr** — 多平台社交通道无缝集成 > 💡 **完全独立运行**:无需任何云端服务,本工具开箱即用;也可搭配 **Microi 吾码低代码平台** 实现企业级多节点集中管控。 --- ## 📸 界面预览 --- ## 🏗️ 架构 ``` microi.openclaw/ ├── electron/ # Electron 主进程 │ └── main.js # 桌面应用入口(端口重试逻辑) ├── index.html # 页面入口 ├── package.json # 项目配置 + electron-builder 打包 ├── vite.config.js # Vite 构建配置 │ ├── src/ # 前端 (Vue 3 + Element Plus) │ ├── main.js # 入口 │ ├── App.vue # 根组件 (暗色主题) │ ├── router/index.js # 路由 │ └── views/ │ ├── Layout.vue # 侧边栏布局 (含 IP+端口显示) │ ├── Chat.vue # 💬 AI 对话 (聊天框) │ ├── Home.vue # 主页 (状态+快捷操作) │ ├── Environment.vue # 环境管理 │ ├── Service.vue # 服务管理 (资源监控始终显示) │ ├── Config.vue # 配置编辑 (模型模板 + 浏览器自动化) │ ├── Plugins.vue # 🧩 插件管理 (npm/CDN 双源) │ ├── Logs.vue # 实时日志 │ └── Remote.vue # 远程连接 │ ├── server/ # 后端 (Express + WebSocket) │ ├── index.js # 服务入口 (端口 5567+) │ ├── utils.js # 工具函数 (Node.js/npm 路径探测) │ ├── app-config.js # 应用持久化配置(重装不丢失) │ └── routes/ │ ├── chat.js # 💬 AI 对话代理 (转发至 Gateway) │ ├── env.js # 环境检测与自动安装 │ ├── service.js # Gateway 启停 │ ├── config.js # 配置读写 (openclaw.json + 浏览器配置) │ ├── plugins.js # 🧩 插件管理 (npm/CDN 双源安装) │ ├── logs.js # 日志读取 │ ├── status.js # 系统状态 + 网络信息 │ ├── machine.js # 机器信息 │ ├── remote.js # 远程连接 │ └── action.js # 快捷操作 │ ├── dist/ # 前端构建产物 └── release/ # 安装包输出目录 └── Microi.OpenClaw Setup 1.0.0.exe ``` --- ## 🚀 快速开始 ### 普通用户(推荐,3 分钟上手) 无需任何编程知识,下载安装包双击安装即可 —— **全程国内加速下载,无需额外网络工具**: | 平台 | 下载 | |---|---| | Windows | [Microi.OpenClaw Setup.exe](https://gitee.com/microi-net/microi.openclaw/releases) | | macOS (Intel) | [Microi.OpenClaw.dmg (x64)](https://gitee.com/microi-net/microi.openclaw/releases) | | macOS (Apple Silicon) | [Microi.OpenClaw-arm64.dmg](https://gitee.com/microi-net/microi.openclaw/releases) | | Linux | [Microi.OpenClaw.AppImage](https://gitee.com/microi-net/microi.openclaw/releases) | ### 开发者 ```bash git clone https://gitee.com/microi-net/microi.openclaw.git cd microi.openclaw npm install npm run dev ``` > **Windows 开发者注意(使用 nvm4w 时)** > > 如果你使用 [nvm for Windows](https://github.com/coreybutler/nvm-windows) 管理 Node.js 版本,首次切换版本后 PowerShell 可能报错: > ``` > 无法加载文件 npm.ps1,因为在此系统上禁止运行脚本 > ``` > 执行以下命令解决(只需一次): > ```powershell > Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser > ``` ### 首次使用(5 步完成部署) 1. 打开 **吾码小龙虾**,进入 **环境管理** 页面 2. 点击 **🚀 一键安装全部依赖**(程序自动通过国内镜像下载 Node.js 22 便携版 + OpenClaw 小龙虾 CLI + MinGit,无需手动操作) 3. 全部显示 ✅ 后,进入 **配置编辑** 页面 4. 选择模型模板(如 **DeepSeek V3**),填入 API Key,点击保存 5. 进入 **服务管理** 点击启动,等待服务就绪提示后即可在 **AI 对话** 中与 AI 畅聊 ### 支持的大模型 | 模型 | 配置方式 | 说明 | |---|---|---| | **DeepSeek-V3** | 内置模板,填 API Key 即可 | 🔥 推荐首选 · 高性价比国产旗舰大模型 | | **通义千问 (Qwen)** | 内置模板,填 DashScope API Key | 阿里云通义千问,国内直连稳定 | | **MiniMax** | 内置模板,填 API Key 即可 | MiniMax M2.5,国产高质量模型 | | **Ollama 本地模型** | 内置模板,填本地地址 | 完全离线运行,数据100%不出本机 | | GPT-4o | 内置模板,填 OpenAI Key | OpenAI 系列 | | Claude | 内置模板,填 Anthropic Key | Anthropic Claude 系列 | | 自定义 | 手动填写 Base URL + Key | 兼容 OpenAI 格式的任意推理服务 | --- ## ⚙️ 独立运行 vs 接入 Microi 平台 ### 独立运行(零依赖,开箱即用) **吾码小龙虾**本身就是完整的 AI 管理平台,不依赖任何云端服务,独立运行提供: - 💬 **AI 对话**:内置聊天框,国内模型直连,对话数据完全本地 - 🤖 **模型配置**:可视化切换 DeepSeek / Qwen / MiniMax / Ollama / GPT / Claude - ▶️ **Gateway 管理**:启动/停止/重启/实时日志/就绪检测 - 📦 **环境自检**:Node.js 22 + npm + OpenClaw CLI + Git 一键部署 - 🌐 **网络信息**:显示内外网 IP 和端口,支持路由器端口映射后局域网/广域网访问 ### 接入 Microi 吾码低代码平台 作为 Microi 平台的**本地节点**,实现多节点集中管控: ``` ┌─────────────────────────┐ │ Microi 吾码低代码平台 │ │ (云端 / 内网服务器) │ │ │ │ 统一管理多个节点 │ └─────┬───────────┬─────────┘ │ │ 心跳上报 │ │ 心跳上报 ▼ ▼ ┌───────────────┐ ┌───────────────┐ │ 节点A (Win) │ │ 节点B (Mac) │ │ microi.openclaw│ │ microi.openclaw│ │ ↓ 管理 ↓ │ │ ↓ 管理 ↓ │ │ OpenClaw GW │ │ OpenClaw GW │ └───────────────┘ └───────────────┘ ``` 在 **远程连接** 页面填入 Microi 平台地址和密钥,即可将本地节点接入平台统一管理。 --- ## 🛠️ 技术栈 | 层级 | 技术 | 说明 | |---|---|---| | 桌面框架 | Electron 33 | 跨平台桌面应用 | | 前端框架 | Vue 3 + Vite | 现代化前端工具链 | | UI 组件 | Element Plus | 企业级组件库 | | 后端框架 | Express 4 | Node.js Web 框架 | | AI 运行时 | OpenClaw | Node.js/TypeScript AI 助手网关 | | 实时通信 | ws (WebSocket) | 日志推送 & 进程输出 | | 进程管理 | tree-kill | 跨平台进程树终止 | | 机器标识 | node-machine-id | 生成机器唯一码 | --- ## 📝 配置说明 ### 配置文件 OpenClaw 使用 `~/.openclaw/openclaw.json` 作为全局配置文件,可通过管理界面的 **配置编辑** 页面修改。 ### 配置持久化 应用配置(API Key、模型、Provider 等)会自动保存到独立的持久化目录,**重装 exe 不会丢失**: | 平台 | 持久化路径 | |---|---| | Windows | `%APPDATA%\microi-openclaw\config.json` | | macOS | `~/Library/Application Support/microi-openclaw/config.json` | | Linux | `~/.config/microi-openclaw/config.json` | 重装后首次启动时,程序会自动从持久化配置恢复 OpenClaw 配置文件,无需重新手动配置。 ### 端口 | 服务 | 端口 | 说明 | |---|---|---| | 前端开发 | 5566 | Vite 开发服务器 | | 管理后端 | 5567+ | Express + WebSocket(占用时自动 +1,最多尝试 10 次) | | OpenClaw Gateway | 18789 | OpenClaw AI 网关(可在配置中修改) | --- ## 🔧 开发命令 ```bash # 同时启动前端 + 后端(Web 开发模式) npm run dev # Electron 开发模式(桌面窗口) npm run dev:electron # 仅启动后端 npm run dev:server # 仅启动前端 npm run dev:client # 构建前端 npm run build:web # 构建 Windows 安装包 npm run build:win # 构建 macOS 安装包(Intel + Apple Silicon) npm run build:mac # 构建 Linux 安装包 npm run build:linux ``` --- ## 🧩 插件管理 OpenClaw 支持通过插件扩展 AI 能力(微信、语音通话、Teams 等)。本工具提供可视化的插件管理界面。 ### 安装方式 | 方式 | 说明 | |---|---| | **推荐插件** | 在插件管理页面,点击推荐列表中的「安装」按钮 | | **手动安装** | 输入 npm 包名,点击「安装」(如 `@icesword760/openclaw-wechat`) | ### 下载源切换 支持 **npm 官方源** 和 **CDN 加速源** 两种下载方式: | 下载源 | 说明 | |---|---| | npm 官方源 | 默认方式,通过 `openclaw plugins install` 在线安装 | | CDN 加速源 | 从自定义 CDN 下载 tgz 包后本地安装,**国内网络推荐** | CDN 默认地址为 `https://static.itdos.com/openclaw`,可在插件管理页面修改。 #### CDN 目录结构 如果你需要自建 CDN 源,请按以下结构放置文件: ``` https://your-cdn.com/openclaw/ ├── openclaw/latest.tgz ← OpenClaw CLI 主程序 └── plugins/ ├── @icesword760/openclaw-wechat/latest.tgz ├── @openclaw/voice-call/latest.tgz ├── @openclaw/msteams/latest.tgz └── ... ``` ### 推荐插件 | 插件 | 说明 | |---|---| | 💬 `@icesword760/openclaw-wechat` | 微信消息监控、自动回复、群管理 | | 📞 `@openclaw/voice-call` | AI 语音通话能力 | | 👥 `@openclaw/msteams` | Microsoft Teams 频道集成 | | 🔗 `@openclaw/matrix` | Matrix 通道集成 | | 📡 `@openclaw/nostr` | Nostr 去中心化通道 | --- ## 🌍 浏览器自动化 在 **配置编辑** 页面可以配置浏览器自动化参数,为 AI 赋予浏览器操作能力: | 配置项 | 说明 | |---|---| | Chromium 路径 | 指定 Chromium / Chrome 可执行文件路径 | | Headless 模式 | 开启后浏览器在后台运行,不显示窗口 | --- ## ❓ 常见问题 ### Q: 环境安装速度慢或失败? 程序默认走国内加速镜像(Node.js 镜像站 + npmmirror),正常情况下国内网络几十秒即可完成。如多次失败: - 检查本机网络是否正常 - 在环境管理页面重试单项安装 - 也可手动安装 Node.js 22 并加入 PATH,程序会自动识别 ### Q: 安装 OpenClaw CLI 失败? ```bash # 手动安装(国内加速) npm install -g openclaw@latest --registry https://registry.npmmirror.com ``` ### Q: 端口 5567 被占用? 程序会自动尝试 5567 ~ 5576 共 10 个端口。如果全部被占用,请先释放端口。 ### Q: 如何使用 Ollama 本地模型? 1. 安装并启动 [Ollama](https://ollama.com/) 2. 在配置编辑中选择 **Ollama** 模板 3. 确认 Base URL 为 `http://localhost:11434` 4. 填入模型名(如 `llama3.1`) 5. 保存并重启 Gateway ### Q: 如何从外网访问? 侧边栏底部显示当前服务的内网 IP 和端口。在路由器设置端口映射(将外网端口映射到该 IP:端口)即可外网访问。 ### Q: 安装插件超时或失败? 1. 切换下载源:在 **插件管理** 页面将下载源切换为 **CDN 加速源** 2. CDN 方式从 `https://static.itdos.com/openclaw` 下载,国内网络更稳定 3. 如果 CDN 也失败,检查网络连接或联系管理员确认 CDN 资源已上传 --- ## 🤝 相关项目 | 项目 | 说明 | |---|---| | [OpenClaw 小龙虾](https://github.com/openclaw/openclaw) | OpenClaw Node.js AI 智能助手网关(吾码小龙虾的底层引擎) | | [Microi.net 吾码](https://microi.net) | Microi 吾码低代码平台,搭配小龙虾实现企业级多节点管控 | --- ## 📄 许可证 MIT License ---

Made with ❤️ by Microi 吾码团队 · 让 AI 真正属于每一个人