Bendi新闻
>
ICML 2024 | 探究知识编辑对大语言模型的近邻扰动

ICML 2024 | 探究知识编辑对大语言模型的近邻扰动

7天前

微信扫码关注该文公众号作者

来源:PaperWeekly

相关新闻

ICML 2024 | 大语言模型预训练新前沿:最佳适配打包重塑文档处理标准ICML 2024 | 大语言模型预训练新前沿:「最佳适配打包」重塑文档处理标准ICML 2024 | 大语言模型如何表征不同信念?大模型与具身智能的火花,ICML 2024 MFM-EAI Workshop征稿和挑战赛启动即插即用,快速适配!港大FlashST:简单通用的智慧交通时空预测模型 | ICML 2024ICML 2024 Spotlight | 在解码中重新对齐,让语言模型更少幻觉、更符合人类偏好ICML 2024 | 大模型Checkpoint极致压缩,精度无损存储降低70倍ICML 2024 | 量化大模型退化严重?ETH北航字节推出LoRA新范式ICML 2024 | 川大提出外部引导的深度聚类新范式,大幅提升CLIP图像聚类性能量化大模型退化严重?ETH北航字节推出LoRA新范式 | ICML 2024ICML 2024 | 即插即用!无需训练!基于球面高斯约束引导的条件扩散模型识别细胞也能用大模型了!清华系团队出品,已入选ICML 2024 | 开源拒稿4次,终获顶会!ICML 2024放榜:投稿量近万篇,审稿意见下滑严重ICML 2024 | 超越LoRA!港科大提出FourierFT:新型傅立叶微调!训练参数大幅减少ICML 2024 | 提升收敛速度!人大提出基于镜像下降的贝叶斯小样本分类ICML 2024 | 通过随机微分方程统一贝叶斯流网络和扩散模型ICML 2024 | 面向第三代推荐系统:Meta提出首个生成式推荐系统模型ICML 2024 | Transformer究竟如何推理?基于样例还是基于规则ICML 2024|Transformer究竟如何推理?基于样例还是基于规则ICML 2024|华为诺亚提出SLAB:从BN和注意力角度改进TransformerICML 2024 | 清华提出DecisionNCE,用多模态表征预训练加速具身智能ICML 2024 | 无需LayerNorm简化Attention,精度无损推理效率大幅提升谷歌开源TimesFM:1000亿个时间点训练,入选ICML 2024ICML 2024 | 为什么我们应该做online RLHF/DPO?
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。