# thchat-ui **Repository Path**: sunxu0201/thchat-ui ## Basic Information - **Project Name**: thchat-ui - **Description**: No description available - **Primary Language**: Unknown - **License**: Apache-2.0 - **Default Branch**: main - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2025-10-31 - **Last Updated**: 2026-03-06 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README 前端采用Vue更适合中国宝宝体质~ 后端采用Python的Flask快速启动接口,项目提供了若干个调用示例(并不是必须的)。 不需额外数据库,数据存浏览器**IndexedDB**中。 目前支持以下平台:Web PC端、Web 移动端、Wins桌面端。 ### 功能 本项目支持的功能有: - 会话管理:支持会话创建、删除、编辑 - 知识库管理:支持文件管理、文件上传、文件分片、文本召回、知识库问答(RAG) - 多轮对话:支持多轮对话、对话轮数配置 - 联网搜索:支持使用LLM内置联网搜索、Tavily Search外挂联网搜索 - 多平台集成,支持以下平台模型的调用: - 阿里云百炼 - 百度千帆 - 轨基流动 - 月之暗面 - 讯飞星火 - 智谱AI - OpenAI(包括类OpenAI式服务) - Google AI(Gemini) - Dify - 系统主题切换:支持浅色、深色、毛玻璃三种主题,支持自定义背景图片 - 响应式设计:支持PC、移动端 - 多模态: - 支持普通对话、联网搜索对话、知识库对话 - 支持图片输入模型 - 支持图片绘制模型 - 国际化:支持简中、英文 - APIKEY管理:支持APIKEY的添加、删除、编辑 - 模型管理:可手动添加各个平台的模型 - 看板娘:支持看板娘,提供了200+模型 ### 设计特性 本项目具有以下特性: - 专注于轻量化设计,纯前端项目,开箱即用,不需要繁琐的配置 - 完全基于Vue和Element Plus开发 - 不需要额外数据库,数据存浏览器IndexedDB中 - 为开发者提供了丰富的接口示例,支持本地模型请求模式和第三方HTTP请求模式 - 项目内部提供了丰富的配置项,持久化层采用面向对象设计,方便开发者进行二次开发,接入db存储接口 ### 安装 在安装项目前,请先移步[node中文官网](https://nodejs.cn/download/)安装node.js环境,理论上v14以上版本皆可,建议安装最新版,截至目前,node已经更新至v20.12.2。 查看node是否安装成功: ```bash node -v ``` 下载并运行: ```bash # 进入web ui目录 cd ./thchat-ui # 安装npm依赖 npm install # 本地运行 npm run serve ``` 项目项目启动后,使用教程请参考“使用教程”栏目。 对于开发人员,强烈建议使用本地接口调用的模式。参考仓库根目录下的**thchat-serve**文件夹: ```bash thchat-serve ├─igm │ 5_zhipuai_ZHIPUAI_igm.py ├─llm │ ├─chat │ │ 1_simple_local_chat.py │ │ 2_langchain_local_chat.py │ │ 3_langchain_SparkLLM_chat.py │ │ 4_langchain_TongyiQwen_chat.py │ │ 5_langchain_ZHIPUAI_chat.py │ │ 6_langgraph_ZHIPUAI_chat.py │ ├─rag │ │ 1_simple_local_rag.py │ │ 4_langchain_TongyiQwen_rag.py │ │ rag_example.pdf │ └─search │ 1_simple_local_search.py │ 3_langchain_SparkLLM_search.py │ 5_langchain_ZHIPUAI_search.py └─vim 5_langchain_ZHIPUAI_vim.py ``` 后端接口提供了三大类请求示例,分别是对话(llm)、多模态输入(igm)、图片生成(vim)。 在对话(llm)中,提供了普通聊天(chat)、知识库检索(rag)、联网搜索(search)示例。 每一种请求方式都提供了最简洁的实现方式(文件名含_simple_)和基于langchain、langgraph的实现方式(文件名含_langchain_等)。 每一种请求方式都提供了加载本地模型的写法示例(安全、免费、要显卡)与用KEY请求第三方远程模型的写法示例(安全未知、收费、无须显卡资源)。 后端文件的运行需要python3.10环境。先创建conda镜像,可以执行: ```bash # 进入web serve目录 cd ./thchat-serve # 创建conda镜像 conda_env.sh # 激活conda镜像 conda activate thchat ``` 启动接口可以运行: ```bash # 启动某个接口 python ./llm/chat/1_simple_local_chat.py ``` > 【注】如果项目启动失败,请检查前端项目端口8080和后端服务端口5000是否被占用。 ### 打包部署 前端项目打包: ```bash npm run bulid ``` 打包成功会生成dist文件夹,把dist文件夹里面的内容上传到服务器即可。 api_key: "app-0jbNl67RCNs01VeYSG4uSsMm" base_url: "http://119.3.171.40:2595/v1" series: "dify" type: "llm" version: "nl2"