深度学习基础理论————分布式训练(模型并行/数据并行/流水线并行/张量并行)

thbcm阅读(179)

模型并行 是指将一个模型的不同部分(如层或子模块)分配到不同的设备上运行。它通常用于非常大的模型,这些模型无法完整地放入单个设备的内存中。在模型并行中,数据会顺序通过各个层,即一层处理完所有数据之后再传递给下一层。这意味着,在任何时刻,只有当前正在处理的数据位于相应的设备上。

大语言模型提示技巧(二)-给模型时间思考

thbcm阅读(207)

问题:

某人在银行开立一年期定期存款10万元,年息1%。假设用户在前两年末到期时取出当年利息的一半,然后继续定存一年且年息不变,直至存满3年后全部取出,此时用户取出的金额是多少?

解:

第一年本金100000元,到期利息:100000*0.01=1000元,取500元

第二年本金100000+500=100500元,到期利息:100500*0.01=1005元

第三年本金100500+502.5=101002.5元,到期利息:1010.025元

故第三年到期全部取出的金额:101002.5+1010.025=102,012.525元




如果你在阅读这篇文章的时候,同时将上述示例输入大模型进行验证,你将发现你得到的结果也许不太一样。事实上,在不同的模型中,或者对同一模型在不同时间来运行上述示例结果都不太会一样。但是这里的提及的技巧总体而言还是对我们使用语言大模型有帮助的。

联系我们