谷歌开放源码ALBERT自然语言模型
谷歌AI拥有开源的A Lite Bert(ALBERT),这是一种深度学习的自然语言处理(NLP)模型,使用的参数比最先进的BERT模型少89%,准确性几乎没有损失。该模型也可以扩大,以实现新的最先进的性能在NLP基准。
◐◐◐◐●☛█▼▲◐◐◐◐●☛█▼▲◐◐◐◐●☛█▼▲HTTP://WWW.dfjb.net███████████████████████████东方金报网
最先进的NLP模型的最新进展来自使用“自我监督”技术对大量未标记文本数据进行预培训的大型模型。然而,这些模型的大尺寸,有数亿个参数,给实验带来了障碍。不仅训练时间和成本随着模型的大小而增加,而且在某种程度上,模型太大,无法训练;它们不能适应训练计算机的内存。虽然有解决这一问题的技术,谷歌人工智能团队已经确定了在不牺牲准确性的情况下减少模型大小的方法。有了较小的模型,研究人员可以更好地探索模型的超参数空间:
◐◐◐◐●☛█▼▲◐◐◐◐●☛█▼▲HtTp://wWW.dfjb.net东方豪仕法律网●●●●●●●●●●●●●●●●●●●●●
为了改进NLP的这种新方法,人们必须了解什么才能促进语言理解性能-网络的高度(即层数)、它的宽度(隐藏层表示的大小)、自我监督的学习标准,还是完全其他的东西?
在ALBERT的优化中,第一个是单词嵌入的因式分解。与BERT和许多其他深度学习NLP模型一样,ALBERT是基于Transformer体系结构的..该模型的第一步是将单词转换为数字“一热”向量表示。然后将一个热向量投影到嵌入空间中。变压器的一个限制是嵌入空间必须具有与隐藏层的大小相同的尺寸。将大小为V的词汇表投影到维度E的嵌入中需要VxE参数。随着实现最先进的结果所需的大量词汇和模型维度,这可能需要接近十亿个参数。通过分解嵌入,ALBERT团队首先将单词向量投影到一个较小的维度空间:128vsBERT的768。然后将这种较小的嵌入投影到具有与隐藏层相同维数的高维空间中。团队假设第一个投影是单词的上下文无关表示,而第二个投影是上下文相关表示。
第二个优化是在网络的层上共享参数。变压器网络层同时包含一个前馈组件和一个注意组件;ALBERT的策略是在所有层之间共享每个组件..这确实造成了大约1.5个百分点的精度损失,但它确实将所需参数的数量从89M减少到12M。
http://www.dfjb.net●☛█▼▲◐●☛█▼▲◐◐◐◐●☛█▼▲◐东方金报网●☛█▼▲东方金报网
谷歌发布了一个基于TensorFlow的ALBERT实现,以及一个英语语料库和一个中文语料库上的模型;Twitter上的用户现在询问谷歌是否计划发布一个西班牙语语料库上的模型。在GitHub上可以获得ALBERT代码和模型。
- 上一篇
微软Windows Server 2012 R2大获全胜
毫不奇怪,考虑到这两个团队的工作步调一致,微软已经发布到制造Windows Server2012R2,以及Windows8.1客户端。Windows Server2012R2是Windows Server2012的“蓝色”更新。微软官员在8月27日的一篇博文中宣布,R2发布了RTM。(我敢打赌,这可能是在8月23日星期五,也就是Windows8.1的同一天。微软高管今天也承认,Windows8.1已经有RTM,并将从今天,8月27日开始交给OEM。服务器团队几周前宣布,他们将在10
- 下一篇
如何与财务应用程序共享Apple Card交易
最好的跟踪财务状况的方法是使用适当的预算系统,无论是在家中使用的纸质账本还是iPhone上使用的应用程序,在保持日常财务状况时,保持财务状况最有效开支。Apple最近增加了与第三方预算应用程序共享每月交易的支持。但是,为了努力保护您最私人的数据,您不能像其他银行和信用卡那样简单地将Apple Card连接到Quicken或YNAB(或任何您喜欢的预算服务)。至少目前,您必须通过CSV文件导出每月支出交易,然后可以将其与个人理财应用程序一起使用。以下是将Apple Card交易导出到电子表格中的方法。如何将