1000层transformer横空出世!
点蓝色字关注“机器学习算法工程师”
设为星标,干货直达!

转自新智元公众号
编辑:David 拉燕
【导读】近日,微软研究院的研究人员搞出了一个1000层的Transformer,在多语种机器翻译任务上刷新多项SOTA

论文链接:https://arxiv.org/abs/2203.00555

超深的Transformer:DEEPNET



性能:1000层网络,显著提升NMT表现



大规模多语言神经机器翻译


参考链接:
https://arxiv.org/abs/2203.00555
推荐阅读
辅助模块加速收敛,精度大幅提升!移动端实时的NanoDet-Plus来了!
机器学习算法工程师
一个用心的公众号

评论
