Monthly Archives: May 2024

中文信息处理实验室12篇论文被ACL2024录用

2024-05-24T10:29:29+00:00

中文信息处理实验室12篇论文被ACL2024录用 近日,中文信息处理实验室12 项大模型领域研究成果被国际顶级会议ACL2024录用,相关成果涉及大模型知识机制、大模型价值观对齐、大模型智能规划、大模型评估、大模型检索等方向。以下是相关被录用成果的简要介绍。   成果一:沉默的螺旋:大模型如何影响信息检索? 论文标题:Spiral of Silence: How is Large Language Model Killing Information Retrieval?—A Case Study on Open Domain Question Answering 论文作者:Xiaoyang Chen, Ben He, Hongyu Lin, Xianpei Han, Tianshu Wang, Boxi Cao, Le Sun, Yingfei Sun 录用类型:主会长文 论文简介:将大语言模型(LLM)与检索系统相结合的 "检索增强生成"(RAG)在实践中已变得越来越普遍,然而LLM 生成内容渗入网络数据并影响检索-生成反馈回路所带来的影响在很大程度上还是未知领域。本研究构建并反复运行了一个模拟循环系统,以深入研究 LLM 文本对 RAG 系统造成的短期和长期影响。以当前流行的开放领域问题解答(ODQA)任务为切入点,本研究揭示了潜在的数字 "沉默螺旋 "效应,即 LLM 生成的文本在搜索排名中始终优于人类撰写的内容,从而逐渐削弱人类撰写文本在网上的影响。这种趋势有可能造成一个失衡的信息生态系统,即LLM生成的错误内容肆意泛滥,导致准确信息被边缘化。本研究敦促学术界注意这一潜在问题,确保数字信息景观的多样性和真实性。   成果二:学习还是自我对齐?重新思考大模型指令微调底层机制 论文标题:Learning or Self-aligning? Rethinking Instruction Fine-tuning 论文作者:Mengjie Ren, Boxi Cao, Hongyu Lin, Cao Liu, Xianpei Han, Ke Zeng, Guanglu Wan, Xunliang Cai, Le Sun 录用类型:主会长文 论文简介:指令微调已经成为大型语言模型构建的核心步骤之一,然而关于指令微调对大模型的输出的影响机制的深入分析仍然非常缺乏。当前应用指令微调的工作主要有两个目的,模型行为模式的转换和注入特定领域的知识。由于缺乏对指令微调的深入分析,我们很难理解指令微调给模型带来的增益究竟是由于其成功地对齐了我们期望的输出空间,实现了更好的知识表达机制,还是由于指令微调过程中确实带来了额外的领域知识增益。然而,对IFT潜在机制的理解仍然非常有限。在本文中,我们设计了知识扰动的分析框架,来解耦合模型行为模式转换与额外世界知识注入的作用。我们的实验表明,试图通过IFT学习额外的世界知识往往难以产生积极的影响,甚至可能导致明显的负面影响。此外,我们发现在指令微调前后保持内部知识的一致性是实现成功指令微调的关键因素。我们的研究结果揭示了指令微调的潜在机制,即指令微调的核心作用机制并不是让模型去“学习”额外的知识,而是将模型内部现有的知识进行一种自我的对齐。   成果三:规则或故事:哪种是与大模型交流时更好的常识表达方式? 论文标题:Rule or Story, Which is a Better Commonsense Expression for Talking with Large Language Models? 论文作者:Ning Bian, Xianpei Han, Hongyu Lin, Yaojie Lu, Ben [...]

中文信息处理实验室12篇论文被ACL2024录用 2024-05-24T10:29:29+00:00