小狮博客
联系我们
联系我们
当前位置:
小狮博客
>
技术专栏
>
正文
大模型微调实战:通过 LoRA 微调修改模型自我认知
2025-04-24
分类:
技术专栏
阅读(106)
评论(0)
本文主要分享如何使用 LLaMAFactory 实现大模型微调,基于 Qwen1.5-1.8B-Chat 模型进行 LoRA 微调,修改模型自我认知。
赞(
0
)
未经允许不得转载:
小狮博客
»
大模型微调实战:通过 LoRA 微调修改模型自我认知
分享到:
更多
(
0
)
上一篇
MCP应用docker部署,docker-compose部署
下一篇
QT 的信号-槽机制
相关推荐
NOIP 算法合集
zcash pow equihash算法详解
Jetlinks 物联网平台社区版 源码学习分析
利用泛型编写更安全的Golang代码
《逆袭导论》————初中生的宝书
Micrometer监控指标上报Starrocks
告别盲人摸象,数据分析的抽样方法总结
让 AI 更懂 Svelte 5:Svelte MCP Server 全面指南
联系我们
回顶
回顶部