小狮博客
联系我们
联系我们
当前位置:
小狮博客
>
技术专栏
>
正文
SemanticKernel/C#:使用Ollama中的对话模型与嵌入模型用于本地离线场景
2024-11-01
分类:
技术专栏
阅读(185)
评论(0)
本文使用的对话模型是gemma2:2b,嵌入模型是all-minilm:latest,可以先在Ollama中下载好。
赞(
0
)
未经允许不得转载:
小狮博客
»
SemanticKernel/C#:使用Ollama中的对话模型与嵌入模型用于本地离线场景
分享到:
更多
(
0
)
上一篇
万字干货:从消息流平台Serverless之路,看Serverless标准演进
下一篇
Win11不在C盘安装WSL2(Linux环境),安装Nvidia驱动和默认使用Win11的网络代理服务
相关推荐
磁盘格式化和LVM挂载
Serilog 日志库的简介
我是如何通过开发微信小游戏赚得人生第一桶金的
easy-query暴打efcore(包括其他所有orm),隐式Group看我如何在子查询做到极致的性能天花板
搞跨端渲染?你绕不开的HarfBuzz原理
架构师必备:限流方案选型(使用篇)
【一步步开发AI运动APP】十三、如何进行运动开始前的站位预检,提升用户体验
上周热点回顾(10.20-10.26)
联系我们
回顶
回顶部