# ToFu **Repository Path**: helldog2022/ToFu ## Basic Information - **Project Name**: ToFu - **Description**: No description available - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: main - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2026-04-12 - **Last Updated**: 2026-04-12 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README

Tofu logo
Tofu
豆腐 — 自托管 AI 助手

CI Python PostgreSQL License Platform

🇬🇧 English

主界面

--- ## Tofu 是什么? Tofu 是一个**完全自托管的 AI 助手**,一条命令即可启动。它可以连接任何 OpenAI 兼容的大模型 API,为你提供一个完整的 AI 工作空间 —— 从简单的问答,到能自主搜索网页、编辑代码、操控浏览器、多智能体协作的全能智能体。 一切都运行在你自己的机器上,数据不会离开你的基础设施。`python server.py`,开箱即用。 --- ## 快速开始 ### 一键安装(推荐) **Linux / macOS:** ```bash curl -fsSL https://raw.githubusercontent.com/rangehow/ToFu/main/install.sh | bash ``` **Windows (PowerShell):** ```powershell irm https://raw.githubusercontent.com/rangehow/ToFu/main/install.ps1 | iex ``` **或直接用 Python**(任何装有 Python 3.10+ 的系统): ```bash git clone https://github.com/rangehow/ToFu.git && cd ToFu python install.py ``` 安装脚本会自动创建虚拟环境、安装依赖、初始化 PostgreSQL 并启动服务器。就绪后打开 **http://localhost:15000**。 ```bash # 预配置 API 密钥和端口 python install.py --api-key sk-xxx --port 8080 # 仅安装,不启动 python install.py --no-launch # 用 Docker 安装 python install.py --docker ``` ### Docker(零依赖) ```bash git clone https://github.com/rangehow/ToFu.git && cd ToFu docker compose up -d ``` 打开 **http://localhost:15000** —— 搞定。所有数据通过 Docker volume 持久化。
手动安装(完全控制) **前提条件:** Python 3.10+,PostgreSQL 18+,ripgrep & fd-find(推荐) ```bash git clone https://github.com/rangehow/ToFu.git && cd ToFu # 创建环境 python -m venv .venv && source .venv/bin/activate # 安装 PostgreSQL(如尚未安装) # macOS: brew install postgresql@18 # Ubuntu: sudo apt install postgresql # conda: conda install -c conda-forge postgresql>=18 # 安装 ripgrep & fd-find(推荐 — 代码搜索更快) # macOS: brew install ripgrep fd # Ubuntu: sudo apt install ripgrep fd-find # 安装依赖 pip install -r requirements.txt # 可选:浏览器自动化 pip install playwright && playwright install chromium # 启动 python server.py ```
> **PostgreSQL** 以本地用户态进程运行 —— 无需 `sudo`,无需系统服务。首次启动时数据库自动初始化(initdb、建表、端口选择)。 > **缺少依赖?** 如果有任何 pip 包缺失,`server.py` 会自动委托给 `bootstrap.py`,通过 LLM 诊断错误并自动 `pip install` 所需的包 —— 即使*所有*依赖都缺失也能工作。 --- ## 连接你的大模型

服务商设置

点击 **⚙️ 设置 → 🔗 服务商**,添加你的 API 密钥。Tofu 支持任何 OpenAI 兼容的 API: | 服务商 | 配置方式 | |---|---| | OpenAI、Anthropic、Google Gemini、DeepSeek、Qwen、MiniMax、GLM、Doubao、Mistral、Grok、百度千帆、OpenRouter | 点击 **⚡ 从模板添加** —— 一键完成 | | Ollama、vLLM 或任何本地模型服务 | 添加为自定义服务商,填入你的本地端点 | | Azure OpenAI | 模板可用,填入部署专属的 Base URL | **同一服务商多个密钥** —— 添加多个 API 密钥,当某个密钥触发限速时自动轮换到下一个。跨服务商的智能调度器会根据实时延迟评分和错误率追踪来路由请求。 或者通过环境变量配置(适用于无界面/Docker 部署): ```bash export LLM_API_KEY=sk-xxx export LLM_BASE_URL=https://api.openai.com/v1 export LLM_MODEL=gpt-4o ``` --- ## 功能详解 ### 💬 与任何模型对话

对话界面

核心体验:从下拉菜单选择模型,输入消息,获得流式回复。但 Tofu 远不止一个基础对话框。 **想用不同模型试同一个问题?** 随时在对话中切换模型。每条消息都记住了生成它的模型,方便你自然地对比输出。你还可以对任意助手回复进行分支,用不同模型或参数探索替代答案,所有分支都在同一个对话线程中。 **用中文提问但需要英文资料?** 开启按对话的自动翻译。你的中文问题会被翻译成英文发给模型,英文回复再翻译回中文。原文始终保留,点击即可切换查看。 **对话太长,上下文快爆了?** Tofu 的 3 层上下文压缩流水线自动处理: 1. **微压缩**(零成本):旧的工具调用结果被替换为摘要,只保留最近的"热尾巴" 2. **结构化截断**:思考过程块、过大的参数、冗余截图被裁剪 3. **LLM 摘要**(强制触发):当上下文压力过高时,一个廉价模型评估每轮对话的相关性并据此压缩 **想整理你的对话?** 在侧边栏创建文件夹来分组相关对话。可以在文件夹之间拖拽,也可以不归类。 --- ### 🔍 网页搜索与内容抓取 当助手需要实时信息 —— 今天的新闻、文档更新、API 参考 —— 它可以搜索网页并阅读页面。 **工作原理:** 在工具栏启用 🔍 开关。助手会并行搜索多个引擎(DuckDuckGo、Brave、Bing、SearXNG),去重后抓取最相关的页面。可选的 LLM 内容过滤器会自动去除导航栏、广告和模板代码。 **直接粘贴 URL?** 助手直接抓取,支持 HTML、PDF 和纯文本。如果页面需要登录认证,使用浏览器插件代替(见下文)。 **配置** —— 在 **设置 → 🔍 搜索与抓取** 中: - 自动抓取的结果数量(默认:6) - 每页超时和最大字符数 - 屏蔽域名列表 - 是否启用 LLM 内容过滤(关闭可加速) --- ### 🛠️ 工具调用与自主智能体 这是 Tofu 超越普通聊天机器人的地方。启用工具后,助手可以自主执行多步操作 —— 搜索网页、运行代码、编辑文件、生成图片 —— 将这些串联起来解决复杂任务。 **内置工具:** | 工具 | 功能 | |---|---| | `web_search` | 搜索网页(多引擎并行) | | `fetch_url` | 读取任意 URL(HTML、PDF、纯文本) | | `run_command` | 执行 Shell 命令 | | `generate_image` | 创建或编辑图片(Gemini、GPT-image) | | `ask_human` | 任务中途暂停并向你提问 | | `list_conversations` / `get_conversation` | 引用过往对话 | | `create_memory` / `update_memory` / `delete_memory` | 保存知识供未来使用 | | `check_error_logs` / `resolve_error` | 检查和解决项目日志中的错误 | | 浏览器工具 | 操控你的浏览器(通过插件) | | 桌面工具 | 操控你的本地机器(通过代理) | | 项目工具 | 浏览、搜索、编辑任意代码库 | | 定时任务工具 | 创建周期性自动化任务 | | Swarm 工具 | 启动并行子智能体 | **需要基于实时数据的快速回答?** —— "英伟达今天的股价是多少?"助手搜索、抓取相关页面并回答。 **需要多步骤工作流?** —— "调研排名前 5 的 React 状态管理库,做个对比,写一份推荐文档。"助手会规划步骤、执行搜索、阅读文档并综合结果 —— 全程自主完成。 **任务太复杂,一次搞不定?** —— 启用 **终端模式**(Planner → Worker → Critic)。规划者将你的需求改写为结构化简报并附上验收标准,执行者执行,审查者对照清单审查。如果结果不通过,审查者提反馈让执行者迭代 —— 最多 10 轮。 **出错了怎么办?** —— 助手会以指数退避策略自动重试。如果主模型完全失败,它会自动切换到配置的备选模型继续执行。 --- ### 💻 项目协作(Co-Pilot) 将 Tofu 指向任意代码库,它就变成了一个能读取、搜索、编辑和执行命令的编程助手。 **开始使用:** 点击侧边栏的 **Project**,输入代码库路径(例如 `/home/you/myproject`)。助手将获得以下工具: | 工具 | 功能 | |---|---| | `list_dir` | 浏览目录结构,含文件大小和行数 | | `read_files` | 读取文件(支持图片、PDF、Office 文档、代码 —— 带行号) | | `grep_search` | 使用 ripgrep 跨文件搜索(正则、上下文行、计数模式) | | `find_files` | 按通配符模式查找文件 | | `write_file` | 创建或覆盖文件 | | `apply_diff` | 精确的搜索替换编辑(支持批量多文件编辑) | | `insert_content` | 在锚点前后添加代码,不替换原内容 | | `run_command` | 在项目目录中执行 Shell 命令 | **想快速了解一个新代码库?** —— "给我概述一下这个项目的架构。"助手会浏览目录树、阅读关键文件,梳理出整体结构。 **需要修 Bug?** —— "登录页提交后白屏了。"助手会 grep 相关代码、阅读组件、定位问题,然后用 `apply_diff` 修复。 **想安全地实验?** —— 每次文件修改都按对话跟踪,支持完整撤销。点击撤销按钮即可回滚助手做的任何改动。 **多项目根目录** —— 可添加多个目录作为根(例如前端 + 后端仓库)。助手通过命名空间在所有根目录之间解析路径。 **智能 Token 管理** —— `content_ref` 机制让助手可以将之前的工具结果直接写入文件而无需重新生成,`emit_to_user` 让助手指向已有的工具输出而非重复它。这在处理大文件时能节省大量 Token。 --- ### 🤖 多智能体集群(Swarm) 有些任务大到单个智能体难以胜任。Swarm 系统让一个主编排器规划子任务,并将它们分派给并行运行的专家智能体。 **什么时候用:** "把这个微服务拆分成 3 个独立服务,更新 API 文档,写迁移脚本。"与其让一个智能体按顺序做完所有事,主编排器会为每个子任务启动并行智能体。 **工作原理:** 1. 主 LLM 规划子任务并分配角色(编码者、研究者、写作者、审查者……) 2. **流式 DAG 调度器**在依赖完成后立即启动智能体 —— 不等待整波完成 3. 智能体通过**产出物仓库**(所有智能体可见的键值对)共享数据 4. 智能体完成后,主编排器审查结果并可启动后续智能体 5. 最终结果被综合为连贯的输出 **智能体角色** —— 每个智能体获得角色专属的系统提示词、模型层级和限定的工具访问权限。"研究者"有搜索工具;"编码者"有项目工具;"审查者"只有只读权限。 **限速** —— 共享信号量防止智能体用并发请求压垮 LLM API。遇到 429 错误时自动指数退避。 --- ### 🔀 CLI 后端切换 已经在用 **Claude Code** 或 **OpenAI Codex**?Tofu 可以作为它们的纯 Web 前端 —— 你获得 Tofu 的 UI、对话管理和持久化,而外部 CLI 用自己的认证处理所有 LLM 调用和工具执行。 **安装:** ```bash # 安装 Claude Code npm install -g @anthropic-ai/claude-code && claude auth login # 或安装 Codex npm install -g @openai/codex && codex auth login ``` 点击顶栏的**后端选择器**(🤖)即可切换。UI 会自动适配 —— 使用外部后端时,模型选择器和 Tofu 专属功能自动隐藏。 | 功能 | 内置 (Tofu) | Claude Code | Codex | |------|:-:|:-:|:-:| | 对话与流式输出 | ✅ | ✅ | ✅ | | 网页搜索 | ✅ | ✅ (CC 自带) | ✅ (Codex 自带) | | 文件操作 | ✅ | ✅ (CC 自带) | ✅ (Codex 自带) | | 代码执行 | ✅ | ✅ (Bash) | ✅ (exec) | | 模型选择 | ✅ | — | — | | 图片生成 | ✅ | ❌ | ❌ | | 浏览器插件 | ✅ | ❌ | ❌ | | 多智能体集群 | ✅ | ❌ | ❌ | > CLI 必须安装在与 Tofu 服务器同一台机器上。每个对话会记住它使用的后端。 --- ### 🌐 浏览器插件 当你需要助手阅读登录后才能看的页面 —— 内部仪表盘、JIRA 工单、需要认证的管理后台 —— 浏览器插件可以桥接你真实的浏览器会话到 Tofu。 **安装:** 1. 打开 `chrome://extensions` → 启用开发者模式 2. 加载已解压的扩展程序 → 选择 `browser_extension/` 目录 3. 点击插件图标 → 输入你的 Tofu 服务器地址 **可以做什么:** | 工具 | 用途 | |---|---| | `browser_list_tabs` | 查看你所有打开的标签页 | | `browser_read_tab` | 提取文本内容(可选 CSS 选择器) | | `browser_screenshot` | 截取页面截图 | | `browser_navigate` | 打开一个 URL | | `browser_click` | 通过选择器或文本点击元素 | | `browser_type` | 在输入框中输入文字 | | `browser_execute_js` | 运行自定义 JavaScript 提取数据 | | `browser_get_interactive_elements` | 发现可点击/可输入的元素 | | `browser_get_app_state` | 访问 Vue/React 内部状态 | **页面使用 Canvas/SVG 渲染(图表、DAG 图等)?** DOM 文本提取会返回空内容。用 `browser_screenshot` 做视觉分析,`browser_get_app_state` 获取数据,或 `browser_execute_js` 自定义提取。 **多个浏览器**可以同时连接,拥有独立的命令队列 —— 适合你有工作和个人不同浏览器配置文件的场景。 --- ### 🖥️ 桌面代理 当你需要助手超越浏览器与本地机器交互 —— 全屏截图、读写本地文件、自动化 GUI 点击、管理剪贴板。 **安装:** ```bash pip install pyautogui pillow psutil python lib/desktop_agent.py --server http://your-server:15000 --allow-write --allow-exec ``` 代理连接到你的 Tofu 服务器,提供文件操作、剪贴板、截图、GUI 自动化(pyautogui)和系统信息等工具。所有危险操作需要显式启用 `--allow-write` / `--allow-exec` 标志。 --- ### 🖼️ 图片生成 当你需要视觉内容 —— 插图、图表、Logo、修图 —— 助手可以在对话中直接生成图片。 **使用方法:** 在工具栏启用 🖼️ 开关,然后描述你想要的内容。助手会调用 `generate_image` 并附上详细提示词。 - **从零创建** —— "画一个极简风格的山与日出 Logo" - **编辑已有图片** —— 上传一张图片并说"把背景换成海滩日落" - **保存到项目** —— 指定 `output_path` 直接保存到代码库中 - **SVG 转换** —— 添加 `svg: true` 自动将生成的 PNG 转换为可缩放矢量图 多模型调度在 Gemini 和 GPT 图片模型之间轮转,遇到限速自动重试。 --- ### 🔗 MCP(模型上下文协议) 当你想连接外部工具服务器 —— GitHub、数据库、自定义 API —— MCP 可以把它们桥接到 Tofu 的工具系统中。 **工作原理:** MCP 服务器作为子进程运行,通过 stdio/SSE(JSON-RPC 2.0)通信。Tofu 将它们的工具翻译成 OpenAI function-calling 格式,让 LLM 可以像使用原生工具一样发现和调用它们。 **配置:** 在 **设置** 中或编辑 `data/config/mcp_servers.json`: ```json { "github": { "command": "npx", "args": ["-y", "@modelcontextprotocol/server-github"], "env": { "GITHUB_TOKEN": "ghp_xxx" } } } ``` 之后助手就可以调用 `mcp__github__create_issue`、`mcp__github__search_code` 等工具 —— 任何 MCP 兼容的服务器都能接入。 --- ### ☑️ 每日报告与 My Day 点击侧边栏的 **☑️ My Day** 按钮,打开你的个人工作日志 —— 一个由 LLM 驱动的每日看板。 **想看看今天完成了什么?** —— LLM 阅读当天所有对话,将它们聚类为 5–15 个连贯的工作流(如"修复图片渲染 Bug"、"部署测试环境"),标记为*已完成*、*进行中*或*被阻塞*。 **需要明天的计划?** —— LLM 从未完成的工作中综合出 3–8 个可执行的待办事项,每个都附有详细提示词和推荐的工具配置。点击 ▶ 即可将任何待办启动为新对话,预填好内容、开好工具,直接干活。 **日历视图** —— 月度总览,显示每天的对话数量和费用热力图。点击任意日期查看或生成当天报告。 **待办管理** —— 未完成的待办自动顺延到第二天。可手动添加待办、切换完成状态,或启动为新对话。费用追踪显示每天和每个对话的花费(人民币)。 **自动回填** —— 后台调度器在服务器启动时和每天午夜自动生成昨天的报告(如缺失)。 --- ### 🕐 定时任务 当你需要自动执行的任务 —— 每日数据拉取、周期性健康检查、定期报告 —— 创建一个按计划运行的主动代理。 **使用方法:** 启用 🕐 定时任务开关,然后说:"每 6 小时对我的 API 做一次健康检查"或"每天早上 9 点总结一下昨晚的 GitHub issues。"助手会创建一个类 cron 的定时任务。 **任务类型:** Shell 命令、Python 脚本或 LLM 提示词 —— 都可以使用完整的工具集。 **管理任务:** 点击顶部状态栏的 **SCHEDULER** 徽章,查看所有活跃的主动代理和最近的运行日志。 --- ### 🐦 飞书(Lark)机器人 当你的团队在飞书中沟通,希望直接在群聊里使用 AI 助手 —— Tofu 通过 WebSocket 连接为飞书机器人。 **配置:** 1. 在 [open.feishu.cn](https://open.feishu.cn/app) 创建应用,启用机器人能力 2. 打开 **设置 → 🐦 飞书** → 输入 App ID 和 App Secret 3. 重启服务器后机器人自动连接 **功能:** 支持完整工具调用(搜索、代码、项目)的多轮对话,斜杠命令切换模型/模式,对话管理 —— 全部在飞书原生聊天界面中完成。 --- ### 🧠 记忆系统 当助手发现了有用的东西 —— 一个 Bug 模式、一个项目规范、你偏好的编码风格 —— 它可以把这些知识保存为**记忆**,供未来的会话使用。 **工作原理:** 记忆以 Markdown 文件形式存储在 `.chatui/skills/`(项目级)或 `.chatui/skills/global/`(全局)。助手会主动创建记忆,你也可以要求它创建。在之后的对话中,相关的记忆会自动加载到上下文中。 **工具:** `create_memory`、`update_memory`、`delete_memory`、`merge_memories` —— 助手跨会话管理自己的知识库。 **使用场景:** "记住我们的 API 总是返回 snake_case。" —— 助手保存这个规范,并在以后为这个项目生成代码时自动应用。 --- ### 🔀 对话分支 当你想探索不同方向又不想丢失当前的对话线索 —— 对任意助手回复进行分支。 **工作原理:** 点击任意助手消息上的分支图标。一个新分支在行内打开,从该节点开始拥有独立的历史记录。多个分支可以同时流式输出。每个分支可以使用不同的模型或参数。 **使用场景:** - 对比不同模型对同一问题的回答 - 尝试另一种方案又不丢失当前进度 - 让一个分支做调研,另一个分支做实现 --- ## 设置参考 所有配置通过 **⚙️ 设置** 面板完成(右上角齿轮图标)。更改即时保存,无需重启。 | 选项卡 | 配置内容 | |---|---| | **⚙️ 通用** | 主题(暗色/亮色/豆腐)、温度、最大 Token 数、思维深度、系统提示词 | | **🔗 服务商** | API 密钥、端点、模型列表、多密钥轮换、自动发现 | | **📦 显示** | 下拉列表中显示哪些模型、默认模型、备选模型 | | **🔍 搜索与抓取** | 结果数量、超时、字符限制、屏蔽域名、内容过滤 | | **🌐 网络** | HTTP/HTTPS 代理、代理绕过域名 | | **🐦 飞书** | 应用凭证、默认项目路径、允许的用户 | | **`` 高级** | 价格覆盖、缓存管理、服务器信息 | ### 环境变量(备用) 对于无界面/Docker 部署,可通过环境变量配置。设置界面始终优先。 ```bash cp .env.example .env ``` | 变量 | 说明 | 示例 | |---|---|---| | `LLM_API_KEY` | API 密钥(备用) | `sk-abc123...` | | `LLM_BASE_URL` | 端点(备用) | `https://api.openai.com/v1` | | `LLM_MODEL` | 默认模型(备用) | `gpt-4o` | | `PORT` | 服务器端口 | `15000` | | `BIND_HOST` | 绑定地址 | `0.0.0.0` | --- ## 项目结构 ``` ├── server.py Flask 应用入口,中间件,日志 ├── bootstrap.py 自动依赖修复(LLM 引导) ├── index.html 主聊天 UI(单页应用) │ ├── lib/ 核心库 │ ├── agent_backends/ CLI 后端切换(内置/Claude Code/Codex) │ ├── llm_client.py LLM API 客户端(流式,重试) │ ├── llm_dispatch/ 多密钥多模型智能调度器 │ ├── database/ PostgreSQL(自动初始化,迁移) │ ├── tasks_pkg/ 任务编排与上下文压缩 │ │ ├── orchestrator.py LLM ↔ 工具主循环 │ │ ├── executor.py 工具执行引擎 │ │ ├── endpoint.py Planner → Worker → Critic 循环 │ │ └── compaction.py 3 层上下文压缩 │ ├── tools/ 工具定义与 Schema │ ├── swarm/ 多智能体编排 │ ├── fetch/ 内容抓取与提取 │ ├── search/ 多引擎网页搜索 │ ├── browser/ 浏览器插件桥接 │ ├── project_mod/ 项目协作(扫描、编辑、撤销) │ ├── memory/ 记忆积累系统 │ ├── mcp/ 模型上下文协议桥接 │ ├── feishu/ 飞书机器人集成 │ ├── scheduler/ 任务调度(cron、主动代理) │ ├── image_gen.py 图片生成(多模型调度) │ ├── desktop_agent.py 桌面自动化代理 │ └── ... │ ├── routes/ Flask 蓝图(21 个 API 模块) ├── static/ CSS、JS、图标 ├── browser_extension/ Chrome 插件(Manifest V3) ├── tests/ 测试套件(单元、API、E2E) └── data/ 运行时数据(已加入 .gitignore) ``` --- ## 平台支持 | 功能 | Linux | macOS | Windows | |---|:---:|:---:|:---:| | 核心对话与工具 | ✅ | ✅ | ✅ | | PostgreSQL 自动初始化 | ✅ | ✅ | ✅ | | 项目协作 | ✅ | ✅ | ✅ | | Shell 命令 | ✅ | ✅ | ✅ (`cmd.exe`) | | 桌面代理 | ✅ | ✅ | ✅ | | 浏览器插件 | ✅ | ✅ | ✅ | 烟雾测试:`python debug/test_cross_platform.py` --- ## 测试 ```bash # 全部测试 python tests/run_all.py # 单独测试套件 python -m pytest tests/test_backend_unit.py python -m pytest tests/test_api_integration.py python -m pytest tests/test_visual_e2e.py ``` --- ## 安全 - **源码中无密钥** —— 所有凭证从环境变量或设置界面加载 - **单用户模式** —— 无多租户认证;请在 VPN 或反向代理后面部署 - **工具执行** —— 助手可以运行 Shell 命令和编辑文件;危险模式会被拦截,但请谨慎使用 - **桌面代理** —— 需要显式启用 `--allow-write` / `--allow-exec` 标志 --- ## 贡献 请参阅 [CONTRIBUTING.md](CONTRIBUTING.md) 获取完整指南。简要版: 1. Fork → 创建功能分支 2. `python healthcheck.py && python tests/run_all.py` 3. 提交 Pull Request --- ## 许可证 MIT