首页 > 都市言情 > 重生之AI教父 > 第113章 意外的邀请

第113章 意外的邀请(1/3)

目录
好书推荐: 人声鼎沸 让你当守墓人,没让你成万古魔尊 大明:我,开国王爷,带头反对分封制 秋意非晚 闺宁 1号新妻:老公,宠上瘾! 大筒木青衣 神道逍遥,从收留蚌女开始 领主:开局一本水浒传 残唐隐龙

相比效果显著,非常出色的老虎算法,移动端优化排序算法的效果要稍差一些。

因而孟繁岐并没有急着推动上线测试,而是等待结合ai语言解释模型的那一个更新准备一起推动。

目前针对语言问题所采用的通常是循环神经网络(rnn)和长短期记忆办法(t),这两个工作都是上个世纪末的老办法了。

这两种方法简明好用,因而一直兴盛到2017年左右。

直到tranfrer,也就是hatgpt的t方法出现。

通常来说,大家都认为tranfrer方法之所以能够迅速取代rnn和t,主要是因为它更方便并行进行。

在多个设备上容易做到并行,这件事最核心的意义便是让规模庞大的版本成为可能,这也为后来hatgpt这样的究极巨无霸模型奠定了基础。

“其实老版的rnn也有办法可以把并行做得很好,领域内对这件事有很大的误解。”孟繁岐皱着眉头思索道。

原本时间线,tranfrer出来之后,所有人都放下了手头老方法的研究,拥抱了t方法。

可18年实际上有人专门做了rnn的高度并行,只可惜已经太迟了。

如果这个发现可以早一年的时间,可能rnn会长期作为t办法的竞争对手,我们也有可能看到hatrnn的出现。

“早期的t方法需要很多数据,各种参数比较难调整,需要的计算能力也很庞大。”孟繁岐即便根据后来成熟的许多方法做了一个改进的版本,t方法在早期仍旧比较麻烦。

“好在谷歌的数据和算力都不缺,而我也比较熟悉各种经典的参数设置。”孟繁岐先写了一个雏形版本的t方法,进行了一下测试。

“不过,受限于现在显卡的显存,模型没有办法做得很大,除非我专门再去开发deeppeed这样的高级并行方式。”

在多张卡上训练模型,可能是为了追求速度,也可能是因为一张卡上放不下了。

其中,数据并行是最简单的,也就是不同的卡都在做同样的事情,每张卡上都会存放一个模型。

只不过输入的数据不一样,不同的卡做完运算之后,再一起整合更新。

就像是所有人都拿了同样的刀切不同的菜,最后把切好的食材堆在一起。

可有的时候,一张卡上根本就放不下模型,这样的情况就比较麻烦了。因为一个人根本拿不动这把刀了,需要多人协作。

可以把每一层拆分

本章未完,点击下一页继续阅读。

书页 目录
新书推荐: 1977:开局相亲女儿国王 天空破碎 位面交易:逃荒农女富可敌国 她是神!网恋的冷宫皇子黏上瘾 隐婚后老公每天想公开 和纸片人谈恋爱[综] 殷总马甲千千万,夫人撒娇掉一半 大一开学:我开启神豪生活 我在轮回空间有特权 温柔沦陷!京圈大佬甜哄小娇娇
返回顶部