# AI 炒股助手 **Repository Path**: cobyboy1121/PreTrade-AI ## Basic Information - **Project Name**: AI 炒股助手 - **Description**: No description available - **Primary Language**: Unknown - **License**: MIT - **Default Branch**: main - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 1 - **Forks**: 0 - **Created**: 2026-04-09 - **Last Updated**: 2026-04-17 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # AI 炒股助手 (PreTrade AI) 基于 **FastAPI + Vue3 + Qwen2.5-7B 大模型** 构建的 A 股智能分析与量化盯盘助手。系统通过自动化爬取财经资讯、利用大模型进行情绪与走势诊断,结合量化 T+0 回测算法,辅助散户或短线交易者进行决策与日内盯盘。 ## 🌟 核心功能 - **自动化资讯爬取**:定时从同花顺等财经网站抓取最新新闻。 - **AI 智能分析 (Ollama)**:调用本地部署的 Qwen2.5 大模型对新闻进行去重、提取核心摘要、分析板块归属并计算情绪强度(1~5 分)。 - **数据可视化大屏**:提供全市场情绪分布(饼图)、板块情绪矩阵(散点图)、热力图及异动雷达图。 - **AI 走势预测与胜率复盘**:每日生成走势预测,并在盘后自动核对实际涨跌幅,计算历史胜率。 - **T+0 量化策略回测**:基于分钟级 K 线数据,支持“正T(先买后卖)”策略回测,结合 VWAP、MACD 背离等指标寻找日内最佳买卖点。 - **日内盯盘 (分时图)**:实时刷新个股/ETF 的分时走势,并将量化策略的买卖点实时标记在图表中。 --- ## 🛠️ 技术栈 ### 前端 - **Vue 3** + **TypeScript** + **Vite** - **Ant Design Vue** (UI 组件库) - **ECharts** + **vue-echarts** (数据可视化图表) - **Tailwind CSS** (原子化 CSS) ### 后端 - **Python 3.10+** - **FastAPI** (高性能异步接口) - **SQLite3** + **SQLAlchemy** (轻量级数据库及 ORM) - **APScheduler** (后台定时任务调度) - **Requests / BeautifulSoup4** (爬虫) - **Pandas / Numpy** (量化指标计算与数据处理) ### AI 大模型 - **Ollama** (本地模型运行环境) - **Qwen2.5:7b-instruct** (默认使用的推理大模型,支持 4-bit 量化) --- ## 🚀 本地部署与使用指南 本项目采用前后端分离架构,且完全在本地运行大模型,保证数据隐私。请按照以下步骤配置环境。 > 📖 **如果你已经部署成功,请查看 [功能使用教程 (USER_GUIDE.md)](./USER_GUIDE.md) 了解如何玩转 AI 数据分析和 T+0 量化盯盘!** ### 1. 环境准备 在开始之前,请确保你的电脑上已经安装了以下软件: - **Node.js** (推荐 v18 或以上版本) -> [下载地址](https://nodejs.org/) - **Python** (推荐 v3.10 或以上版本) -> [下载地址](https://www.python.org/downloads/) - **Ollama** (用于在本地运行大语言模型) -> [下载地址](https://ollama.com/) ### 2. 部署 AI 大模型 (Ollama) 安装好 Ollama 后,打开终端(Terminal)或命令提示符,拉取并运行 `qwen2.5:7b` 模型: ```bash ollama run qwen2.5:7b ``` *首次运行会下载模型文件(约 4.7GB),请保持网络畅通。下载完成后可以按 `Ctrl + D` 退出对话模式,Ollama 服务会在后台继续运行(默认监听 `http://localhost:11434`)。* ### 3. 后端部署 (FastAPI) 1. **进入项目目录**并新建终端,进入后端目录: (本项目的后端代码默认放在根目录的 `api` 文件夹或与前端同目录,请确认你的 `api/` 文件夹位置) 2. **创建并激活 Python 虚拟环境**(推荐): ```bash # Windows python -m venv venv .\venv\Scripts\activate # macOS / Linux python3 -m venv venv source venv/bin/activate ``` 3. **安装依赖包**: 在项目根目录下,运行以下命令安装所需的 Python 库: ```bash pip install fastapi uvicorn sqlalchemy requests beautifulsoup4 pandas numpy apscheduler lxml ``` 4. **启动后端服务**: ```bash uvicorn api.routers.api:app --host 0.0.0.0 --port 8000 --reload ``` *如果你的入口文件是 `api/main.py`,请将启动命令中的路径替换为 `api.main:app`。* *启动成功后,后端 API 将运行在 `http://localhost:8000`。* ### 4. 前端部署 (Vue 3) 1. 打开一个**新的**终端窗口,确保你在项目根目录下(即包含 `package.json` 的目录)。 2. **安装 Node 依赖**: ```bash npm install # 或者如果你使用 pnpm / yarn: # pnpm install ``` 3. **启动前端开发服务器**: ```bash npm run dev ``` 4. **访问系统**: 打开浏览器,访问终端中输出的本地地址(通常是 `http://localhost:5173`),即可看到系统界面! --- ## ⚙️ 常见问题排查 (FAQ) **Q1: AI 诊断或生成报告时一直转圈,或者提示网络错误?** - 检查 Ollama 服务是否在后台正常运行。 - 确认你在终端中成功执行过 `ollama run qwen2.5:7b` 且模型已下载完毕。 - 如果你的 Ollama 运行在其他端口或服务器,请在后端代码中搜索 `http://localhost:11434` 并替换为你实际的地址。 **Q2: 爬虫没有抓取到数据?** - 检查网络是否正常,财经网站的接口可能会有反爬机制或结构变动。 - 进入系统的“设置”页面,检查是否配置了正确的爬虫源和自选板块。 **Q3: T+0 回测或分时图报错?** - 确保你的 Python 环境中成功安装了 `pandas` 和 `numpy`。如果没有,请重新执行 `pip install pandas numpy`。 - 确保系统时间正确,非交易时间获取的最新行情可能是昨日的收盘数据。 --- ## 🤝 贡献与协议 欢迎提交 Pull Request 或者 Issue 探讨优化量化策略! 本项目基于 MIT License 开源。本项目仅作技术交流与量化学习使用,**不构成任何投资建议**。股市有风险,交易需谨慎。