# Cloud Studio使用 **Repository Path**: amyjia/cloud-studio-run-program ## Basic Information - **Project Name**: Cloud Studio使用 - **Description**: 1. 如何在本地的vscode访问cloud studio 2. 在cloud studio中使用git下载git 3. vscode中cloud studio如何使用 4. 收费的Hai服务器可以在团队账号中共享么 5. 腾讯云上有哪些微调Deepseek模型的方法 6. Cloudstudio上如何微调Deepseek模型 7. 如何在腾讯云上使用代码微调模型 - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2025-05-08 - **Last Updated**: 2025-05-09 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # Cloud Studio使用 #### 介绍 1. 如何在本地的vscode访问cloud studio 2. 在cloud studio中使用git下载git 3. vscode中cloud studio如何使用 4. 收费的Hai服务器可以在团队账号中共享么 5. 腾讯云上有哪些微调Deepseek模型的方法 6. Cloudstudio上如何微调Deepseek模型 7. 如何在腾讯云上使用代码微调模型 #目前唯一可以使用的网站————https://cloudstudio.net/ ide专业版即将下线 但收费部分还是一样的 在腾讯云官网上缴费开发票 目前gpu免费 过段时间gpu收费后会有新的计费标准 ### 1. 如何在本地的vscode访问cloud studio 无法操作 这个功能下线了 ### 2. 在cloud studio中使用git下载git@gitee.com:ncut-sci/kid-story.git 目前只支持http来克隆 不支持ssh ![介绍](%E6%8D%95%E8%8E%B71.PNG) 现场演示 ### 3. vscode中cloud studio如何使用 无法操作 这个功能下线了 ### 4. 收费的Hai服务器可以在团队账号中共享么 不可以 共享服务器没有这项服务 团队功能已经下线 现在共享代码的方式只有网站上的复制方法 目前的gpu是免费的 之后新出计费规则 ### 5. 腾讯云上有哪些微调Deepseek模型的方法 ### 6. Cloudstudio上如何微调Deepseek模型 ### 7. 如何在腾讯云上使用代码微调模型 大致进行了解 还未进行实践 微调步骤:1.部署——大模型服务快速部署 Ollama+VLLM 在cs上进行GPU部署 2.微调大模型 1.下载部署LLama 2.LLaMA-Factory 支持通过 WebUI 零代码微调大语言模型 3.WebUI界面主要分为四个界面:训练、评估与预测、对话、导出。 指定参数: - 模型名称及路径 - 训练阶段 - 微调方法 - 训练数据集 - 学习率、训练轮数等训练参数 - 微调参数等其他参数 - 输出目录及配置路径 点击start开始训练 4.微调参数配置: 模型配置 model_name_or_path: /workspace/Qwen/Qwen2.5-1.5B-Instruct 预训练模型的本地路径(Qwen2.5-1.5B-Instruct模型)。 quantization_bit: 4 启用4-bit量化(显著减少显存占用,适合低资源环境)。 微调方法 stage: sft 训练阶段为监督微调(Supervised Fine-Tuning)。 do_train: true 启用训练模式。 finetuning_type: lora 使用LoRA(低秩适应)进行高效微调。 lora_target: all 对模型所有线性层应用LoRA适配器。 数据集配置 dataset: identity 使用的数据集名称(需在data_info.json中注册)。 dataset_dir: /workspace/LLaMA-Factory-main/data 定义了关键文件的查找路径。 template: qwen 指定Qwen专用对话模板格式。 cutoff_len: 1024 输入文本的最大长度(超出部分截断)。 max_samples: 1000 每个数据集最多使用的样本数(限制训练规模)。 overwrite_cache: true 覆盖已缓存的数据预处理结果。 preprocessing_num_workers: 16 数据预处理的并行线程数(加速数据加载)。 训练超参数 per_device_train_batch_size: 1 每个GPU的训练批次大小(受显存限制设为1)。 gradient_accumulation_steps: 8 梯度累积步数(等效批次大小=1×8=8)。 learning_rate: 1.0e-4 初始学习率(LoRA常用较小学习率)。 num_train_epochs: 3.0 训练总轮数。 lr_scheduler_type: cosine 使用余弦退火学习率调度器。 warmup_ratio: 0.1 学习率预热的比例(前10%训练步线性增加学习率)。 bf16: true 启用BF16混合精度训练(适合Ampere架构GPU)。 验证与评估 val_size: 0.1 验证集比例(10%训练数据用于验证)。 per_device_eval_batch_size: 1 每个GPU的验证批次大小。 eval_strategy: steps 按步数间隔执行验证。 eval_steps: 500 每500训练步验证一次。 输出与日志 output_dir: saves/qwen2.5-1.5b/lora/sft 模型和日志的输出目录。 logging_steps: 10 每10步记录一次日志。 save_steps: 500 每500步保存一次模型检查点。 plot_loss: true 绘制训练损失曲线。 overwrite_output_dir: true 覆盖已有输出目录。 其他配置 ddp_timeout: 180000000 分布式训练的超时时间(毫秒,约50小时)。 5.执行命令开始微调 6.合并后推理