第161章 你们真的好弱欸(3/3)
,林灰凭什么能够把信息优势发挥的淋漓尽致。
虽然前世仅仅工作了三年,但林灰说是有六年的工作经验也不过分。
至于多余的三年工作经验哪来的?
这说多了都是泪,加班加出来的。
不得不说,这都是“福报”
这加班多是一件美逝啊。
不是这样的疯狂加班林灰哪有能够重生的机会?
纵然能有重生的机会。
不疯狂加班林灰怎么会对那些枯燥的东西记忆如此深刻呢?
不过这些都是前尘往事了。
因为过往的种种经历,在现在这个时空里,林灰就是当之无愧的强者。
至于同领域的其他研究者,林灰尊重他们的努力。
但不得不说:抱歉,你们真的好弱欸!
并不是林灰在信口开河。
林灰先前搞得那个生成式文本摘要这个算法所涉及到的全部技术。
如果被这个时空下的研究团队彻底吃透。
起码能将这个时空全世界自然语言处理以及神经网络学习方面的研究进展加速近一年的时间。
当然这说的是马上吃透的话,能加速近一年时间。
如果这些研究团队花了两三年才搞定相应的进展,那反而是拖累他们正常的进度了。
抛开生成式文本摘要这个专利不谈。
仅仅是林灰在弄生成式文本摘要时顺手牵羊搞定的那个l文本摘要准确度衡量模型也够牛掰的了。
如果这项技术能够被这个时空的研究团队所掌握的话,对于他们的研究也是有所助力的。
尽管林灰当初就把如何构建模型表达的已经足够清楚,就差手把手教了。
构建模型的话首先要运用语言模型来评估算法生成语言的流畅度,然后使用相似度模型评估文本和摘要之间的语义相关性,最后为了有效评估实体、专有词的复现程度,引入原文信息量模型来评估
但此时的研究人员似乎仍然很好奇林灰是怎么构建这一衡量标准的。