搜索
RWKV-LM线性 Transformer 模型
认领
关注
0
获赞
0
粉丝
0
关注
RWKV 是结合了 RNN 和 Transformer 的语言模型,适合长文本,运行速度较快,拟合性能较好,占用显存较少,训练用时较少。RWKV 整体
作品1
知识
RWKV-LM线性 Transformer 模型
RWKV 是结合了 RNN 和 Transformer 的语言模型,适合长文本,运行速度较快,拟合性
RWKV-LM线性 Transformer 模型
0
加载更多