CCF-NLP走进高校之“走进厦门大学”
活动介绍
“CCF-NLP走进高校”是由中国计算机学会自然语言处理专业委员会(CCF-NLP)发起,联合MLNLP及各个知名高校开展的一系列高校NLP研究分享活动。通过特邀嘉宾分享交流,促进更多师生对自然语言处理前沿进展的了解,帮助在校计算机及相关专业大学生成长和发展。
本期走进高校活动将于2024年4月20日9:00—12:00走进“厦门大学”,与厦门大学一起聆听各位嘉宾在NLP领域的研究成果。
2 活动流程
活动流程
活动流程(含10分钟Q&A)
主持人:张岳
09:00--09:05 王昊奋 开场介绍 + CCF-NLP介绍
09:05--09:10 张俊松 厦门大学介绍
活动主持人:苏劲松
09:10--09:50 徐 童 分享主题:大模型增强的多模态认知智能:探索与尝试(分享+Q&A)
09:50--10:30 张拳石 分享主题:神经网络是否可以被严谨地解释清楚?以及可解释性技术在大模型上的应用落地(分享+Q&A)
10:30--11:10 陈 谐 分享主题:Advancing Self-supervised Audio Learning and Its Integration with Large Language Models(分享+Q&A)
11:10--11:50 张 岳 分享主题:Fast-DetectGPT高效零样本机器生成文本检测(分享+Q&A)
11:50--12:00 活动总结
3 嘉宾介绍
嘉宾介绍
张 岳
西湖大学教授
嘉宾简介:张岳,西湖大学教授。主要研究领域为自然语言处理、文本挖掘及相关的机器学习方法。研究成果包括机器学习引导搜索的结构预测算法、多任务联合模型、文本表示和图神经网络、自然语言处理中的常识、逻辑推理以及泛化问题,因果机制引导的自然语言处理等。著有剑桥大学出版社《自然语言处理——机器学习视角》,编写牛津参考文献自然语言处理。担任国内外顶级会议CCL 2020、EMNLP 2022程序委员会共同主席。担任transactions for ACL期刊执行编辑,以及四个transaction期刊副主编。获多个国际会议最佳论文奖。
嘉宾简介:苏劲松,厦门大学信息学院教授、电影学院,人工智能研究院双聘导师。国家特支计划青年拔尖人才,福建省杰出青年基金获得者,入选2023年度全球前2%顶尖科学家榜单。主要研究方向是自然语言处理,大模型,AI for Sciences。共发表CCF-A/B论文120余篇,获得2020年钱伟长中文信息处理科学技术奖—汉王青年创新奖,国家示范型软件学院联盟20周年优秀专职教师奖。
王昊奋
同济大学特聘研究员
嘉宾简介:王昊奋,上海交大博士、上海市优秀博士,同济大学百人计划特聘研究员,博士生导师。其研究兴趣及专长是知识图谱、自然语言处理、对话式用户交互、智能内容生成。他是全球最大的中文开放知识图谱联盟OpenKG发起人之一。出版了《自然语言处理实践》《知识图谱方法、实践与应用》等著作。他还受邀在世界人工智能大会等诸多国际与国内智能峰会上担任讲者,并在自然语言处理国内顶级会议NLPCC多次担任知识图谱方向主席,长期作为ISWC, WWW, AAAI等人工智能国际顶级会议程序委员会委员。负责参与10余项国家自然科学基金、863重大专项、科技部科技支撑、经信委和科委等AI相关项目,共发表100余篇AI领域高水平论文。长期在一线人工智能公司担任CTO之职,荣获徐汇区学科带头人人才计划。他构建了全球首个可交互养成的虚拟偶像—“琥珀·虚颜”;所构建的智能客服机器人已累计服务用户超过10亿人次,并成功入选中国人工智能产业发展联盟最佳AI应用案例。目前,他担任中国计算机学会术语工委副主任,SIGKG主席,上海秘书长,中国中文信息学会理事,语言与知识计算专委会副秘书长,上海市计算机学会自然语言处理专委会副主任,上海交通大学AI校友会秘书长等社会职位。
三、厦门大学介绍:
四、分享嘉宾:
嘉宾简介:徐童,中国科学技术大学特任教授、博士生导师,中国中文信息学会青年工作委员会副秘书长,国家优秀青年科学基金获得者。研究领域为多模态知识发现。发表中国计算机学会推荐A类期刊/会议论文70余篇。获3项国际学术会议论文奖项,指导学生获国内外学术竞赛/测评冠军10余项。2022年获安徽省科技进步二等奖、安徽省计算机学会优秀青年科学家奖。
报告题目:大模型增强的多模态认知智能:探索与尝试
报告介绍:多模态认知智能已成为人工智能发展的主流趋势之一,旨在通过多模态语义的深度表示与推理,有效支撑面向多媒体场景的富语义下游应用。当下,方兴未艾的多模态大模型依托其强大的语义理解与归纳能力,有望为突破传统多模态技术在感知与整合深度语义线索方面的局限性提供新的助力。针对上述问题,本次报告将简要总结团队围绕大模型增强的多模态认知所开展的技术探索,以及针对多模态大模型语义幻觉和高训练开支的改进尝试。
嘉宾简介:张拳石,上海交通大学电院计算机科学与工程系长聘教轨副教授,博士生导师,入选国家级海外高层次人才引进计划,获ACM China新星奖。他于2014年获得日本东京大学博士学位,于2014-2018年在加州大学洛杉矶分校(UCLA)从事博士后研究。张拳石在神经网络可解释性方向取得了多项具有国际影响力的创新性成果。张拳石承担了TMLR的Action Editor,CCF-A类会议IJCAI 2020和IJCAI 2021的可解释性方向的Tutorial,并先后担任了AAAI 2019, CVPR 2019, ICML 2021大会可解释性方向的分论坛主席。
报告题目:神经网络是否可以被严谨地解释清楚?以及可解释性技术在大模型上的应用落地
报告介绍:虽然近年来神经网络的可解释性研究得到了广泛的关注,但是大部分可解释性研究依然停留在工程技术层面,大量根本性问题尚未得到解决,尚缺少相对严谨的理论体系从根本机理层面统一解释神经网络的知识表达和其表征性能。比如,证明神经网络内在决策逻辑是否可以被严谨地解释为符号化的概念,如何量化神经网络的知识表征,什么是决定神经网络泛化性和鲁棒性的第一性原理,等等。本次报告将介绍如何在博弈交互理论体系下严谨地量化神经网络所建模的概念表征,如何证明解释的严谨性,如何通过概念表征层面的解释提升大模型的训练效率节省成本,如何对大模型安全性进行量化评估。
嘉宾简介:陈谐,上海交通大学计算机科学与工程系长聘教轨副教授,博士生导师,获国家海外高层次人才(青年)项目资助。2009年本科毕业于厦门大学电子工程系,2012年硕士毕业于清华大学电子系,2016年博士毕业于剑桥大学信息工程系,博士毕业后先后在剑桥大学从事博士后研究,美国微软研究院任高级研究员,主管研究员,2021年9月加入上海交通大学。主要研究方向为深度学习,智能语音和声音信号处理,在本领域的国际权威会议和期刊发表论文80余篇。
报告题目:Advancing Self-supervised Audio Learning and Its Integration with Large Language Models
报告介绍:Recently, self-supervised learning has received widespread research interest in speech and audio processing. It demonstrates great potential for learning underlying structure information from large amounts of unlabeled audio. In this talk, I will introduce our recent progress in self-supervised learning on audio and emotional speech data, by introducing utterance and frame-level joint learning, we could achieve significant performance improvement in audio classification and speech emotion recognition. Next, I will introduce our effort to integrate the powerful speech representation with a large language model, to extend the ability of LLMs on speech recognition and spatial audio understanding. We demonstrate that the powerful audio representation plays a vital role, and a simple combination between the audio representation is sufficient to yield promising performance.
嘉宾简介:张岳,西湖大学教授。主要研究领域为自然语言处理、文本挖掘及相关的机器学习方法。研究成果包括机器学习引导搜索的结构预测算法、多任务联合模型、文本表示和图神经网络、自然语言处理中的常识、逻辑推理以及泛化问题,因果机制引导的自然语言处理等。著有剑桥大学出版社《自然语言处理——机器学习视角》,编写牛津参考文献自然语言处理。担任国内外顶级会议CCL 2020、EMNLP 2022程序委员会共同主席。担任transactions for ACL期刊执行编辑,以及四个transaction期刊副主编。获多个国际会议最佳论文奖。
报告题目:Fast-DetectGPT高效零样本机器生成文本检测
报告介绍:大语言模型如ChatGPT和GPT-4在各个领域对人们的生产和生活带来便利,但其误用也引发了关于虚假新闻、恶意产品评论和剽窃等问题的担忧。本文提出了一种新的文本检测方法——Fast-DetectGPT,无需训练,直接使用开源小语言模型检测各种大语言模型生成的文本内容。Fast-DetectGPT在斯坦福大学的DetectGPT基础上,将检测速度提高了340倍,将检测准确率相对提升了75%,成为新的SOTA。在广泛使用的ChatGPT和GPT-4生成文本的检测上,均超过知名商用系统GPTZero的准确率。Fast-DetectGPT同时做到了高准确率、高速度、低成本、通用,扫清了实际应用的障碍。
4
直播平台
直播平台
视频号
B站
关于我们
微信扫码关注该文公众号作者