Bendi新闻
>
ICML 2024|华为诺亚提出SLAB:从BN和注意力角度改进Transformer

ICML 2024|华为诺亚提出SLAB:从BN和注意力角度改进Transformer

9天前

微信扫码关注该文公众号作者

来源:CVer

相关新闻

ICML 2024|Transformer究竟如何推理?基于样例还是基于规则ICML 2024 | 清华提出DecisionNCE,用多模态表征预训练加速具身智能ICML 2024 | 面向第三代推荐系统:Meta提出首个生成式推荐系统模型ICML 2024 | 超越LoRA!港科大提出FourierFT:新型傅立叶微调!训练参数大幅减少ICML 2024 | 过犹不及:揭示Graph Transformers中的过全局化问题ICML 2024 | Transformer究竟如何推理?基于样例还是基于规则拒稿4次,终获顶会!ICML 2024放榜:投稿量近万篇,审稿意见下滑严重张鹏对谈安克阳萌:GPU 和 Transformer 可能是中间态,机器人+大模型会诞生超级品类ICML 2024 | 川大提出外部引导的深度聚类新范式,大幅提升CLIP图像聚类性能高频面试题:Transformer为什么使用多头注意力机制?ICML 2024 | 北大、字节提出新型双层位置编码方案,有效改善长度外推效果大模型与具身智能的火花,ICML 2024 MFM-EAI Workshop征稿和挑战赛启动新架构Mamba更新二代!作者:别争了,数学上Transformer和SSM是一回事识别细胞也能用大模型了!清华系团队出品,已入选ICML 2024 | 开源Mamba和Transformer合体!Jamba来了:超越Transformer!ICML 2024 | 提升收敛速度!人大提出基于镜像下降的贝叶斯小样本分类Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存谷歌开源TimesFM:1000亿个时间点训练,入选ICML 2024图灵奖得主Bengio团队新作:注意力可视为RNN!新模型媲美TransformerICML 2024 | 大语言模型预训练新前沿:最佳适配打包重塑文档处理标准ICML 2024 | 大语言模型预训练新前沿:「最佳适配打包」重塑文档处理标准CVPR 2024 | 让视频姿态Transformer变得飞速,北大提出高效三维人体姿态估计框架HoT即插即用,快速适配!港大FlashST:简单通用的智慧交通时空预测模型 | ICML 2024YOCO:打破传统Decoder-only架构,内存消耗仅为Transformer的六分之一
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。