Bendi新闻
>
ACL 2024 | SMU、NUS提出参数高效微调增强剂,显著提升大语言模型性能

ACL 2024 | SMU、NUS提出参数高效微调增强剂,显著提升大语言模型性能

6月前

微信扫码关注该文公众号作者

来源:PaperWeekly

相关新闻

ACL 2024 | 提升大模型持续学习性能,哈工大、度小满提出共享注意力框架SAPTOpenAI、斯坦福大学提出Meta-Prompting,有效提升语言模型的性能LLM性能最高60%提升!谷歌ICLR 2024力作:让大语言模型学会「图的语言」ACL 2024 | 大语言模型的安全对齐会适得其反?无需训练便能逆转安全对齐GPT-4预测股票涨跌更更更准了!东京大学新框架LLMFactor提升显著 | ACL 2024ACL 2024 Findings | 视频大语言模型能理解视频中的时序信息吗?中科大联合华为诺亚提出Entropy Law,揭秘大模型性能、数据压缩率以及训练损失关系ACL 2024论文盖棺定论:大语言模型≠世界模拟器,Yann LeCun:太对了无需RLHF显著提升GPT-4/Llama2性能,北大团队提出Aligner对齐新范式​ACL 2024 | 新一代艺术媒介:探索基于大语言模型的互动戏剧今日arXiv最热NLP大模型论文:微软提出SliceGPT,删除25%模型参数,性能几乎无损ACL 2024 | 多目标直接偏好优化MODPO:大语言模型的多目标对齐ICML 2024 | 川大提出外部引导的深度聚类新范式,大幅提升CLIP图像聚类性能U-Net杀回来了!华为新作U-DiT:让DiT拥抱U-Net!性能提升显著!新突破,钙钛矿电池两项性能显著提升!产业复合增速有望翻倍ACL 2024 Oral | 大模型也会被忽悠?揭秘AI的信念之旅ACL 2024 | 多模态大模型能揭示图像背后的深意吗?“我们坚持开源!”阿里云发布“地表最强”中文大模型:半年一迭代、性能翻倍?国内首个开源千亿参数MoE大模型来了!性能超Grok-1,单张GPU可跑ECCV 2024 | 提升GPT-4V、Gemini检测任务性能,你需要这种提示范式吴恩达团队新作ManyICL:多样本上下文学习显著提高多模态基础模型性能!深入研讨语言模型中知识的生命周期,ACL 2024 Workshop征稿启动仅微调0.02%参数,性能接近全量微调!上海交大推出高效微调统一新范式仅微调0.02%参数,性能接近全量微调!上交大推出高效微调统一新范式
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。