thbcm的文章

技术专栏

transformer论文解读

thbcm阅读(114)赞(0)

Self-attention 在 transformer 论文之前已经有人提出,但 transformer 是第一个只依赖自注意力机制(self-attnetion)来实现 encoder-decoder 架构的模型。

技术专栏

解密prompt系列41. GraphRAG真的是Silver Bullet?

thbcm阅读(84)赞(0)

前一阵Graph RAG的风吹得呼呼的,经常被问你们也Graph RAG了么?但Graph RAG虽好但并非RAG的Silver Bullet,它有特定适合的问题和场景,更适合作为RAG中的一路召回,用来解决实体密集,依赖全局关系的信息召回...

技术专栏

AI之旅-开篇:从云计算之路到AI之旅

thbcm阅读(86)赞(0)

2012年的金秋十月,刚刚遭遇服务器硬件故障的园子在上海张江浦东软件园,写了一篇小学生作文—— 如果云计算,做了一个重要决定——开始考虑搬上很少人使用的阿里云,开启了云计算之路。

技术专栏

go高并发之路——本地缓存

thbcm阅读(89)赞(0)

1、并发量可能会特别特别大,试想一下,一个几十万人的直播间,可能在直播开始前几秒钟,用户就瞬间涌入进来了,那么这时候我们的系统就得加载这些配置信息。此时请求量就如同洪峰一般,一下子就冲击进入我们的系统。

联系我们