原作者带队,LSTM真杀回来了!
LSTM:这次重生,我要夺回 Transformer 拿走的一切。当人们都以为 Transformer 在语言模型领域稳坐江山的时候,LSTM 又杀回来了 —— 这次,是以 xLSTM 的身份。5 月 8 日,LSTM 提出者和奠基者 Sepp Hochreiter 在 arXiv 上传了 xLST
NLP从入门到放弃
3
CVPR 2024 满分论文出炉!这些方向爆火!
作为计算机视觉方向的顶级会议,CVPR可以说是目前最前沿、权威的论文了。在众多研究中,EfficientSAM 这篇工作以5/5/5满分收录于CVPR 2024!就连LeCun图灵奖得主也强烈推荐了该工作!“那么,你的论文什么时候发表呢?”升学、就业的竞争越来越激烈,想要保研、申博、进大厂
NLP从入门到放弃
0
超强MoE模型开源,性能直逼GPT-4-Turbo!!
开源大模型领域,又迎来一位强有力的竞争者。近日,探索通用人工智能(AGI)本质的 DeepSeek AI 公司开源了一款强大的混合专家 (MoE) 语言模型 DeepSeek-V2,主打训练成本更低、推理更加高效。项目地址:https://github.com/deepseek-ai/DeepSee
NLP从入门到放弃
0
爆火后反转?「一夜干掉MLP」的KAN:其实我也是MLP
KAN 作者:我想传达的信息不是「KAN 很棒」,而是「尝试批判性地思考当前的架构,并寻求从根本上不同的替代方案,这些方案可以完成有趣、有用的事情。」多层感知器(MLP),也被称为全连接前馈神经网络,是当今深度学习模型的基础构建块。MLP 的重要性无论怎样强调都不为过,因为它们是机器学习中用于逼近非
NLP从入门到放弃
1
何恺明新作来了!!
MIT新晋副教授何恺明,新作新鲜出炉:瞄准一个横亘在AI发展之路上十年之久的问题:数据集偏差。该研究为何恺明在Meta期间与刘壮合作完成,他们在论文中指出:尽管过去十多年里业界为构建更大、更多样化、更全面、偏...
NLP从入门到放弃
0
恭喜了!全体程序员彻底狂欢吧!这个好消息来得太及时!
自2003年10月18日起人事部、原信息产业部印发《全国计算机软考考试暂行规定》,将计算机软件资格考试(简称:软考)纳入全国专业技术人员职业资格证书制度统一规划!软考从传统的“技能考试”上升为“国家级考试”。软考...
NLP从入门到放弃
0
没等来OpenAI,等来了Open-Sora全面开源
先说开源地址:Open-Sora 开源地址:https://github.com/hpcaitech/Open-Sora目前星标是8.9k,感兴趣可以去看下。本文转自机器之心继 2 周前推出成本直降 46% 的 Sora 训练推理复现流程后,Colossal-AI 团队全面开源...
NLP从入门到放弃
0
YOLOv9问世!!目标检测新SOTA!!
在目标检测领域,YOLOv9 实现了一代更比一代强,利用新架构和方法让传统卷积在参数利用率方面胜过了深度卷积。 继 2023 年 1 月 YOLOv8 正式发布一年多以后,YOLOv9 终于来了! 我们知道,YOLO 是一种基于图像全局信...
NLP从入门到放弃
0
终于发表了第一篇CCF A类顶会!
万物皆卷的时代,升学、就业的竞争越来越激烈,想要保研、申博、进大厂,没有高质量论文在手就相当于“裸奔”! 尤其是这个人人惶恐又内卷的时代,想要抓住点什么来增强安全感。有一份拿得出手的成绩— — 发论文的数量...
NLP从入门到放弃
0
Open AI 最新爆火论文:过程监督胜过结果监督!!
DASOU的学习圈每日分享优秀前沿论文,感兴趣可以加入 : 对于具有挑战性的 step-by-step 数学推理问题,是在每一步给予奖励还是在最后给予单个奖励更有效呢?OpenAI 的最新研究给出了他们的答案。源:机器之心 为了...
NLP从入门到放弃
0
原驼爆火:大模型小型化的神器,开源了!
大家好,我是DASOU 自动测试分数达到ChatGPT的99.3%,人类难以分辨两者的回答…… 这是开源大模型最新成果,来自羊驼家族的又一重磅成员——华盛顿大学原驼(Guanaco)。 更关键的是,与原驼一起提出的新方法QLoRA把微调...
NLP从入门到放弃
0