小狮博客
欢迎光临
我们一直在努力
示例页面
示例页面
Hi, 请登录
我要注册
找回密码
当前位置:
小狮博客
>
技术专栏
>
正文
SemanticKernel/C#:使用Ollama中的对话模型与嵌入模型用于本地离线场景
2024-11-01
分类:
技术专栏
阅读(91)
评论(0)
本文使用的对话模型是gemma2:2b,嵌入模型是all-minilm:latest,可以先在Ollama中下载好。
赞(
0
)
未经允许不得转载:
小狮博客
»
SemanticKernel/C#:使用Ollama中的对话模型与嵌入模型用于本地离线场景
分享到:
更多
(
0
)
上一篇
万字干货:从消息流平台Serverless之路,看Serverless标准演进
下一篇
Win11不在C盘安装WSL2(Linux环境),安装Nvidia驱动和默认使用Win11的网络代理服务
相关推荐
Ubuntu二进制安装ElasticSearch7.17.x版本集群
Coze工作流实战:一键生成像素风格视频
JIT 编译优化原理深度解析
AI大模型应用开发入门-LangChain开发RAG增强检索生成
鸿蒙运动开发实战:打造专属运动视频播放器
FFmpeg开发笔记(六十六)Windows给FFmpeg集成LC3音频的编码器liblc3
LogStash介绍及二进制安装
一个基于 .NET 开源、模块化 AI 图像生成 Web 用户界面
QQ咨询
QQ咨询
回顶
回顶部