Bendi新闻
>
ICML 2024|华为诺亚提出SLAB:从BN和注意力角度改进Transformer

ICML 2024|华为诺亚提出SLAB:从BN和注意力角度改进Transformer

5月前

微信扫码关注该文公众号作者

来源:CVer

相关新闻

清华提出时间序列大模型:面向通用时序分析的生成式Transformer | ICML 2024ICML 2024|Transformer究竟如何推理?基于样例还是基于规则ICML 2024 | 清华提出DecisionNCE,用多模态表征预训练加速具身智能ICML 2024 | 南开大学提出反向传播全新改进策略,不降速、大幅提升显存效率ICML 2024 | 面向第三代推荐系统:Meta提出首个生成式推荐系统模型ICML 2024 | 超越LoRA!港科大提出FourierFT:新型傅立叶微调!训练参数大幅减少ICML 2024 | 过犹不及:揭示Graph Transformers中的过全局化问题ICML 2024|复杂组合3D场景生成,LLMs对话式3D可控生成编辑框架来了ICML 2024 | Transformer究竟如何推理?基于样例还是基于规则ICML 2024 | DMS:直接可微的网络搜索方法,最快仅需单卡10分钟!神经网络架构「殊途同归」?ICML 2024论文:模型不同,但学习内容相同拒稿4次,终获顶会!ICML 2024放榜:投稿量近万篇,审稿意见下滑严重张鹏对谈安克阳萌:GPU 和 Transformer 可能是中间态,机器人+大模型会诞生超级品类ICML 2024 | 川大提出外部引导的深度聚类新范式,大幅提升CLIP图像聚类性能ICML 2024 | 自动化所提出SpikeLM,首个完全脉冲驱动的通用语言建模方案高频面试题:Transformer为什么使用多头注意力机制?ICML 2024 | 北大、字节提出新型双层位置编码方案,有效改善长度外推效果大模型与具身智能的火花,ICML 2024 MFM-EAI Workshop征稿和挑战赛启动陈丹琦团队揭Transformer内部原理:另辟蹊径,从构建初代聊天机器人入手新架构Mamba更新二代!作者:别争了,数学上Transformer和SSM是一回事识别细胞也能用大模型了!清华系团队出品,已入选ICML 2024 | 开源Mamba和Transformer合体!Jamba来了:超越Transformer!ICML 2024 | 图上的泛化挑战:从不变性到因果性ICML 2024 | 提升收敛速度!人大提出基于镜像下降的贝叶斯小样本分类
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。