- 博客(7)
- 收藏
- 关注
原创 AI大模型--LLamafactory框架之自建数据集训练(心理咨询师)
摘要:本文介绍了使用LLaMA-Factory框架进行模型训练和部署的完整流程。首先在云服务器创建conda环境并安装LLaMA-Factory及相关依赖,解决常见报错问题。接着准备数据集,区分单轮和多轮对话格式,并修改配置文件。然后下载Qwen2.5-1.5B-Instruct模型,通过web界面进行训练和评估,处理可能出现的库缺失问题。训练完成后需要合并导出模型并进行量化处理。最后使用Lmdeploy部署量化模型,并通过openai-webui进行前端展示,注意环境变量设置和端口配置。整个流程涉及环境搭
2025-07-12 18:01:11
907
原创 AI大模型--基于bert中文评价的情感分析
摘要:本项目实现了一个基于BERT的中文情感分析系统,采用增量微调方法在预训练模型基础上新增全连接层进行二分类(0为负面/1为正面评价)。流程包含:1) 数据加载模块(MyDataset类)处理训练/验证/测试集;2) 网络结构扩展(Model类)在BERT输出层(768维)添加Linear层;3) 训练过程使用AdamW优化器和交叉熵损失,支持批量训练与验证集监控;4) 评估环节提供主观(交互式测试)和客观(测试集准确率)两种评估方式。项目完整展示了从数据处理、模型构建到训练评估的NLP应用开发全流程,适
2025-06-30 16:05:58
279
原创 AI大模型----Hugging Face模型下载与本地调用
Transformer库是Hugging Face提供的库,用于加载与模型使用。其中datasets库用于加载数据集,tokenizers是分词器库用于将文本转换为词向量。模型的缓存地址一定是绝对路径,并且是config.json所在文件目录,本处是:c2c0249d8a2731f269414cc3b22dff021f8e07a3。需要能访问到外网否者会加载失败。通过以下代码将模型加载到本地,
2025-06-13 17:21:21
445
原创 AI大模型----开发基础环境搭建
深度学习环境配置指南:在Ubuntu 22.04系统下,使用Anaconda/miniconda管理环境,配置CUDA和cuDNN以支持GPU加速,并通过PyCharm进行开发。重点包括:1)Anaconda/miniconda的安装与国内镜像源配置;2)CUDA 11.8及cuDNN的详细安装步骤;3)PyTorch的安装建议(建议选用官方支持的CUDA 11.8版本)。参考多篇CSDN技术博客提供详细配置方法。
2025-06-13 15:42:42
222
原创 树莓派zero2w内存过载
超过限制常常就会造成远程连接断开连接,而且IP可以ping通但是ssh远程连接就是无法连接上。所以当Raspberry Pi的所有内存都被使用完后,它可以开始使用交换文件作为额外的内存。
2024-02-05 21:24:17
875
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人