# Microi.OpenClaw **Repository Path**: microi-net/microi.openclaw ## Basic Information - **Project Name**: Microi.OpenClaw - **Description**: 🦞OpenClaw 吾码小龙虾,国内网络直连 · 无需额外网络工具 · 一键部署全套 AI 环境 · 秒级接入主流大模型。OpenClaw一站式本地桌面管理平台,基于 Electron + Vue 3 构建,支持 Windows / macOS / Linux 全平台。无论你是技术小白还是资深开发者,打开即用,零门槛搭建属于自己的私有 AI 智能助手,5 分钟内让 AI 为你工作。 - **Primary Language**: Unknown - **License**: MIT - **Default Branch**: master - **Homepage**: https://microi.net - **GVP Project**: No ## Statistics - **Stars**: 11 - **Forks**: 5 - **Created**: 2026-03-13 - **Last Updated**: 2026-03-16 ## Categories & Tags **Categories**: ai **Tags**: openclaw, AI ## README # 🦞 Microi.OpenClaw 吾码小龙虾 > **让每一个人都能轻松拥有自己的 AI 智能助手** > > 国内网络直连 · 无需额外网络工具 · 一键部署全套 AI 环境 · 秒级接入主流大模型
---
## 🏗️ 架构
```
microi.openclaw/
├── electron/ # Electron 主进程
│ └── main.js # 桌面应用入口(端口重试逻辑)
├── index.html # 页面入口
├── package.json # 项目配置 + electron-builder 打包
├── vite.config.js # Vite 构建配置
│
├── src/ # 前端 (Vue 3 + Element Plus)
│ ├── main.js # 入口
│ ├── App.vue # 根组件 (暗色主题)
│ ├── router/index.js # 路由
│ └── views/
│ ├── Layout.vue # 侧边栏布局 (含 IP+端口显示)
│ ├── Chat.vue # 💬 AI 对话 (聊天框)
│ ├── Home.vue # 主页 (状态+快捷操作)
│ ├── Environment.vue # 环境管理
│ ├── Service.vue # 服务管理 (资源监控始终显示)
│ ├── Config.vue # 配置编辑 (模型模板 + 浏览器自动化)
│ ├── Plugins.vue # 🧩 插件管理 (npm/CDN 双源)
│ ├── Logs.vue # 实时日志
│ └── Remote.vue # 远程连接
│
├── server/ # 后端 (Express + WebSocket)
│ ├── index.js # 服务入口 (端口 5567+)
│ ├── utils.js # 工具函数 (Node.js/npm 路径探测)
│ ├── app-config.js # 应用持久化配置(重装不丢失)
│ └── routes/
│ ├── chat.js # 💬 AI 对话代理 (转发至 Gateway)
│ ├── env.js # 环境检测与自动安装
│ ├── service.js # Gateway 启停
│ ├── config.js # 配置读写 (openclaw.json + 浏览器配置)
│ ├── plugins.js # 🧩 插件管理 (npm/CDN 双源安装)
│ ├── logs.js # 日志读取
│ ├── status.js # 系统状态 + 网络信息
│ ├── machine.js # 机器信息
│ ├── remote.js # 远程连接
│ └── action.js # 快捷操作
│
├── dist/ # 前端构建产物
└── release/ # 安装包输出目录
└── Microi.OpenClaw Setup 1.0.0.exe
```
---
## 🚀 快速开始
### 普通用户(推荐,3 分钟上手)
无需任何编程知识,下载安装包双击安装即可 —— **全程国内加速下载,无需额外网络工具**:
| 平台 | 下载 |
|---|---|
| Windows | [Microi.OpenClaw Setup.exe](https://gitee.com/microi-net/microi.openclaw/releases) |
| macOS (Intel) | [Microi.OpenClaw.dmg (x64)](https://gitee.com/microi-net/microi.openclaw/releases) |
| macOS (Apple Silicon) | [Microi.OpenClaw-arm64.dmg](https://gitee.com/microi-net/microi.openclaw/releases) |
| Linux | [Microi.OpenClaw.AppImage](https://gitee.com/microi-net/microi.openclaw/releases) |
### 开发者
```bash
git clone https://gitee.com/microi-net/microi.openclaw.git
cd microi.openclaw
npm install
npm run dev
```
> **Windows 开发者注意(使用 nvm4w 时)**
>
> 如果你使用 [nvm for Windows](https://github.com/coreybutler/nvm-windows) 管理 Node.js 版本,首次切换版本后 PowerShell 可能报错:
> ```
> 无法加载文件 npm.ps1,因为在此系统上禁止运行脚本
> ```
> 执行以下命令解决(只需一次):
> ```powershell
> Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser
> ```
### 首次使用(5 步完成部署)
1. 打开 **吾码小龙虾**,进入 **环境管理** 页面
2. 点击 **🚀 一键安装全部依赖**(程序自动通过国内镜像下载 Node.js 22 便携版 + OpenClaw 小龙虾 CLI + MinGit,无需手动操作)
3. 全部显示 ✅ 后,进入 **配置编辑** 页面
4. 选择模型模板(如 **DeepSeek V3**),填入 API Key,点击保存
5. 进入 **服务管理** 点击启动,等待服务就绪提示后即可在 **AI 对话** 中与 AI 畅聊
### 支持的大模型
| 模型 | 配置方式 | 说明 |
|---|---|---|
| **DeepSeek-V3** | 内置模板,填 API Key 即可 | 🔥 推荐首选 · 高性价比国产旗舰大模型 |
| **通义千问 (Qwen)** | 内置模板,填 DashScope API Key | 阿里云通义千问,国内直连稳定 |
| **MiniMax** | 内置模板,填 API Key 即可 | MiniMax M2.5,国产高质量模型 |
| **Ollama 本地模型** | 内置模板,填本地地址 | 完全离线运行,数据100%不出本机 |
| GPT-4o | 内置模板,填 OpenAI Key | OpenAI 系列 |
| Claude | 内置模板,填 Anthropic Key | Anthropic Claude 系列 |
| 自定义 | 手动填写 Base URL + Key | 兼容 OpenAI 格式的任意推理服务 |
---
## ⚙️ 独立运行 vs 接入 Microi 平台
### 独立运行(零依赖,开箱即用)
**吾码小龙虾**本身就是完整的 AI 管理平台,不依赖任何云端服务,独立运行提供:
- 💬 **AI 对话**:内置聊天框,国内模型直连,对话数据完全本地
- 🤖 **模型配置**:可视化切换 DeepSeek / Qwen / MiniMax / Ollama / GPT / Claude
- ▶️ **Gateway 管理**:启动/停止/重启/实时日志/就绪检测
- 📦 **环境自检**:Node.js 22 + npm + OpenClaw CLI + Git 一键部署
- 🌐 **网络信息**:显示内外网 IP 和端口,支持路由器端口映射后局域网/广域网访问
### 接入 Microi 吾码低代码平台
作为 Microi 平台的**本地节点**,实现多节点集中管控:
```
┌─────────────────────────┐
│ Microi 吾码低代码平台 │
│ (云端 / 内网服务器) │
│ │
│ 统一管理多个节点 │
└─────┬───────────┬─────────┘
│ │
心跳上报 │ │ 心跳上报
▼ ▼
┌───────────────┐ ┌───────────────┐
│ 节点A (Win) │ │ 节点B (Mac) │
│ microi.openclaw│ │ microi.openclaw│
│ ↓ 管理 ↓ │ │ ↓ 管理 ↓ │
│ OpenClaw GW │ │ OpenClaw GW │
└───────────────┘ └───────────────┘
```
在 **远程连接** 页面填入 Microi 平台地址和密钥,即可将本地节点接入平台统一管理。
---
## 🛠️ 技术栈
| 层级 | 技术 | 说明 |
|---|---|---|
| 桌面框架 | Electron 33 | 跨平台桌面应用 |
| 前端框架 | Vue 3 + Vite | 现代化前端工具链 |
| UI 组件 | Element Plus | 企业级组件库 |
| 后端框架 | Express 4 | Node.js Web 框架 |
| AI 运行时 | OpenClaw | Node.js/TypeScript AI 助手网关 |
| 实时通信 | ws (WebSocket) | 日志推送 & 进程输出 |
| 进程管理 | tree-kill | 跨平台进程树终止 |
| 机器标识 | node-machine-id | 生成机器唯一码 |
---
## 📝 配置说明
### 配置文件
OpenClaw 使用 `~/.openclaw/openclaw.json` 作为全局配置文件,可通过管理界面的 **配置编辑** 页面修改。
### 配置持久化
应用配置(API Key、模型、Provider 等)会自动保存到独立的持久化目录,**重装 exe 不会丢失**:
| 平台 | 持久化路径 |
|---|---|
| Windows | `%APPDATA%\microi-openclaw\config.json` |
| macOS | `~/Library/Application Support/microi-openclaw/config.json` |
| Linux | `~/.config/microi-openclaw/config.json` |
重装后首次启动时,程序会自动从持久化配置恢复 OpenClaw 配置文件,无需重新手动配置。
### 端口
| 服务 | 端口 | 说明 |
|---|---|---|
| 前端开发 | 5566 | Vite 开发服务器 |
| 管理后端 | 5567+ | Express + WebSocket(占用时自动 +1,最多尝试 10 次) |
| OpenClaw Gateway | 18789 | OpenClaw AI 网关(可在配置中修改) |
---
## 🔧 开发命令
```bash
# 同时启动前端 + 后端(Web 开发模式)
npm run dev
# Electron 开发模式(桌面窗口)
npm run dev:electron
# 仅启动后端
npm run dev:server
# 仅启动前端
npm run dev:client
# 构建前端
npm run build:web
# 构建 Windows 安装包
npm run build:win
# 构建 macOS 安装包(Intel + Apple Silicon)
npm run build:mac
# 构建 Linux 安装包
npm run build:linux
```
---
## 🧩 插件管理
OpenClaw 支持通过插件扩展 AI 能力(微信、语音通话、Teams 等)。本工具提供可视化的插件管理界面。
### 安装方式
| 方式 | 说明 |
|---|---|
| **推荐插件** | 在插件管理页面,点击推荐列表中的「安装」按钮 |
| **手动安装** | 输入 npm 包名,点击「安装」(如 `@icesword760/openclaw-wechat`) |
### 下载源切换
支持 **npm 官方源** 和 **CDN 加速源** 两种下载方式:
| 下载源 | 说明 |
|---|---|
| npm 官方源 | 默认方式,通过 `openclaw plugins install` 在线安装 |
| CDN 加速源 | 从自定义 CDN 下载 tgz 包后本地安装,**国内网络推荐** |
CDN 默认地址为 `https://static.itdos.com/openclaw`,可在插件管理页面修改。
#### CDN 目录结构
如果你需要自建 CDN 源,请按以下结构放置文件:
```
https://your-cdn.com/openclaw/
├── openclaw/latest.tgz ← OpenClaw CLI 主程序
└── plugins/
├── @icesword760/openclaw-wechat/latest.tgz
├── @openclaw/voice-call/latest.tgz
├── @openclaw/msteams/latest.tgz
└── ...
```
### 推荐插件
| 插件 | 说明 |
|---|---|
| 💬 `@icesword760/openclaw-wechat` | 微信消息监控、自动回复、群管理 |
| 📞 `@openclaw/voice-call` | AI 语音通话能力 |
| 👥 `@openclaw/msteams` | Microsoft Teams 频道集成 |
| 🔗 `@openclaw/matrix` | Matrix 通道集成 |
| 📡 `@openclaw/nostr` | Nostr 去中心化通道 |
---
## 🌍 浏览器自动化
在 **配置编辑** 页面可以配置浏览器自动化参数,为 AI 赋予浏览器操作能力:
| 配置项 | 说明 |
|---|---|
| Chromium 路径 | 指定 Chromium / Chrome 可执行文件路径 |
| Headless 模式 | 开启后浏览器在后台运行,不显示窗口 |
---
## ❓ 常见问题
### Q: 环境安装速度慢或失败?
程序默认走国内加速镜像(Node.js 镜像站 + npmmirror),正常情况下国内网络几十秒即可完成。如多次失败:
- 检查本机网络是否正常
- 在环境管理页面重试单项安装
- 也可手动安装 Node.js 22 并加入 PATH,程序会自动识别
### Q: 安装 OpenClaw CLI 失败?
```bash
# 手动安装(国内加速)
npm install -g openclaw@latest --registry https://registry.npmmirror.com
```
### Q: 端口 5567 被占用?
程序会自动尝试 5567 ~ 5576 共 10 个端口。如果全部被占用,请先释放端口。
### Q: 如何使用 Ollama 本地模型?
1. 安装并启动 [Ollama](https://ollama.com/)
2. 在配置编辑中选择 **Ollama** 模板
3. 确认 Base URL 为 `http://localhost:11434`
4. 填入模型名(如 `llama3.1`)
5. 保存并重启 Gateway
### Q: 如何从外网访问?
侧边栏底部显示当前服务的内网 IP 和端口。在路由器设置端口映射(将外网端口映射到该 IP:端口)即可外网访问。
### Q: 安装插件超时或失败?
1. 切换下载源:在 **插件管理** 页面将下载源切换为 **CDN 加速源**
2. CDN 方式从 `https://static.itdos.com/openclaw` 下载,国内网络更稳定
3. 如果 CDN 也失败,检查网络连接或联系管理员确认 CDN 资源已上传
---
## 🤝 相关项目
| 项目 | 说明 |
|---|---|
| [OpenClaw 小龙虾](https://github.com/openclaw/openclaw) | OpenClaw Node.js AI 智能助手网关(吾码小龙虾的底层引擎) |
| [Microi.net 吾码](https://microi.net) | Microi 吾码低代码平台,搭配小龙虾实现企业级多节点管控 |
---
## 📄 许可证
MIT License
---
Made with ❤️ by Microi 吾码团队 · 让 AI 真正属于每一个人