欢迎光临
我们一直在努力

[软件工具使用记录] windows离线ollama部署本地模型并配置continue实现离线代码补全

目前使用qwen2.5coder的32b模型,体验上和gpt-4o差不多(都稀碎),适用于编写脚本,查一些简单问题,例如
flask如何把变量传到前端,准确率还可以,但是补全功能稀碎。

赞(0)
未经允许不得转载:小狮博客 » [软件工具使用记录] windows离线ollama部署本地模型并配置continue实现离线代码补全
分享到: 更多 (0)