# LLM_DEV **Repository Path**: chengyangz/llm_-dev ## Basic Information - **Project Name**: LLM_DEV - **Description**: voyah_code_doc_llm - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2025-03-15 - **Last Updated**: 2025-03-15 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # 代码文档生成系统 一个基于LangChain和Ollama的代码文档生成系统,能够自动分析代码库中的文件间调用关系,并生成上下文感知的详细文档。 ## 功能特点 - 自动分析代码结构和调用关系 - 构建代码知识图谱,捕捉函数间依赖 - 使用本地Ollama模型生成高质量技术文档 - 支持生成单个文件、单个函数或整个项目的文档 - 完全离线运行,无需云API ## 安装说明 ### 前置要求 - Python 3.8+ - [Ollama](https://ollama.ai/download) 安装并运行 ### 安装步骤 1. 克隆此仓库: bash cp .env.example .env 编辑.env文件设置Ollama和其他参数 4. 拉取Ollama模型(如果尚未安装): bash ollama pull qwq:32b-fp16 ## 使用方法 1. 首先确保Ollama服务在后台运行: bash ollama serve 2. 分析代码仓库并生成项目概述: bash python main.py --repo /path/to/your/project --overview 3. 为特定文件生成文档: bash python main.py --repo /path/to/your/project --overview 3. 为特定文件生成文档: bash python main.py --repo /path/to/your/project --file /path/to/file.py 4. 为特定函数生成文档: bash python main.py --repo /path/to/your/project --file /path/to/file.py --function function_name 5. 为所有Python文件生成文档: bash python main.py --repo /path/to/your/project --all ## 配置选项 在`.env`文件中可以自定义以下配置: - `OLLAMA_MODEL`: 要使用的Ollama模型名称 (默认: qwq:32b-fp16) - `OLLAMA_TEMPERATURE`: 生成温度参数 (默认: 0.1) - `MAX_DEPTH`: 调用分析的深度 (默认: 3) - `OUTPUT_DIR`: 文档输出目录 (默认: generated_docs) - `DEBUG`: 启用调试日志 (默认: False) ## 注意事项 - 大型代码库分析可能需要较长时间 - 使用高质量大语言模型(如32b-fp16)可以显著提高文档质量 - 如果使用Neo4j知识图谱功能,需要安装并配置Neo4j数据库