小狮博客
欢迎光临
我们一直在努力
示例页面
示例页面
Hi, 请登录
我要注册
找回密码
当前位置:
小狮博客
>
技术专栏
>
正文
SemanticKernel/C#:使用Ollama中的对话模型与嵌入模型用于本地离线场景
2024-11-01
分类:
技术专栏
阅读(19)
评论(0)
本文使用的对话模型是gemma2:2b,嵌入模型是all-minilm:latest,可以先在Ollama中下载好。
赞(
0
)
未经允许不得转载:
小狮博客
»
SemanticKernel/C#:使用Ollama中的对话模型与嵌入模型用于本地离线场景
分享到:
更多
(
0
)
上一篇
万字干货:从消息流平台Serverless之路,看Serverless标准演进
下一篇
Win11不在C盘安装WSL2(Linux环境),安装Nvidia驱动和默认使用Win11的网络代理服务
相关推荐
反问面试官:如何实现集群内选主
《华为云DTSE》期刊免费下载:10个案例读懂云上架构升级策略
Linux 防火墙与安全管理工具详解
SD卡的基本知识与选购指南
博客园商业化道路建议
Linux调试
如何手写实现 JSON Parser
C++之OpenCV入门到提高005:图像操作
QQ咨询
QQ咨询
回顶
回顶部