Bendi新闻
>
ACL 2024 | SMU、NUS提出参数高效微调增强剂,显著提升大语言模型性能

ACL 2024 | SMU、NUS提出参数高效微调增强剂,显著提升大语言模型性能

7天前

微信扫码关注该文公众号作者

来源:PaperWeekly

相关新闻

ACL 2024 | 提升大模型持续学习性能,哈工大、度小满提出共享注意力框架SAPTOpenAI、斯坦福大学提出Meta-Prompting,有效提升语言模型的性能LLM性能最高60%提升!谷歌ICLR 2024力作:让大语言模型学会「图的语言」ACL 2024 | 大语言模型的安全对齐会适得其反?无需训练便能逆转安全对齐ACL 2024 Findings | 视频大语言模型能理解视频中的时序信息吗?ACL 2024论文盖棺定论:大语言模型≠世界模拟器,Yann LeCun:太对了无需RLHF显著提升GPT-4/Llama2性能,北大团队提出Aligner对齐新范式​ACL 2024 | 新一代艺术媒介:探索基于大语言模型的互动戏剧今日arXiv最热NLP大模型论文:微软提出SliceGPT,删除25%模型参数,性能几乎无损ACL 2024 | 多目标直接偏好优化MODPO:大语言模型的多目标对齐ICML 2024 | 川大提出外部引导的深度聚类新范式,大幅提升CLIP图像聚类性能U-Net杀回来了!华为新作U-DiT:让DiT拥抱U-Net!性能提升显著!新突破,钙钛矿电池两项性能显著提升!产业复合增速有望翻倍ACL 2024 | 多模态大模型能揭示图像背后的深意吗?“我们坚持开源!”阿里云发布“地表最强”中文大模型:半年一迭代、性能翻倍?国内首个开源千亿参数MoE大模型来了!性能超Grok-1,单张GPU可跑吴恩达团队新作ManyICL:多样本上下文学习显著提高多模态基础模型性能!深入研讨语言模型中知识的生命周期,ACL 2024 Workshop征稿启动大模型时代,计算创新如何为应用性能提升开启新路径Llama 3低比特量化性能下降显著!全面评估结果来了 | 港大&北航&ETH小模型性能直逼GPT-4?北航等提出基于强弱模型协同的ICL增强新范式ACL 2024 | 如何避免LLM生成有毒回复?基于知识编辑的大模型祛毒初探开源大模型Llama 3王者归来!最大底牌4000亿参数,性能直逼GPT-4大模型自我奖励:Meta让Llama2自己给自己微调,性能超越了GPT-4
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。