点击右上角微信好友

朋友圈

请使用浏览器分享功能进行分享

正在阅读:算法自动“划重点”AI学会“抱佛脚”
首页> 科普频道> 科普头条 > 正文

算法自动“划重点”AI学会“抱佛脚”

来源:中国科学报2021-11-24 08:59

调查问题加载中,请稍候。
若长时间无响应,请刷新本页面

  预训练模型的兴起给自然语言处理(NLP)带来了“新面貌”。

  近年来,Google、Facebook、OpenAI、微软、百度等人工智能“头部玩家”推出多个颇具影响的预训练模型,并反复迭代出十多个版本。无论学术界还是业界,人们对大规模预训练模型“热情高涨”。

  日前,来自清华大学的一支研究团队提出一种简单高效的NLP学习框架。不同于当下NLP社区主流的“大规模预训练+下游任务微调”的范式,这一框架无需进行大规模预训练,同时将训练效率提升两个数量级,并在多个NLP任务上,实现了比肩甚至超出预训练模型的性能。近日,相关研究以预印本形式,在arXiv上发表。

  预训练模型的“内功”

  预训练模型在自然语言处理领域蓬勃发展,近年来在多个子方向取得了颠覆性的成果。

  “自然语言处理的‘预训练’过程,就像武侠小说中,练武之人的‘修炼内功’。”上海对外经贸大学副研究员邵浩说,“一个人要成为武林高手,需要有扎实的“内功”,内功修炼好之后,再去学各种招式就非常容易上手,并能发挥其最大效用。”

  随着深度学习的发展,模型参数显著增长,从而需要越来越大的数据集,用于充分训练模型参数。然而,因大部分NLP任务的标注成本极为高昂,尤其是句法和语义相关的任务,构建大规模标注数据集尤为困难。

  相比较而言,大规模无标注数据集相对易于构建。为更好地利用海量无标签文本数据,常规的做法是首先从这些数据中学到较好的文本表示,然后再将其用于其他任务。许多研究表明,在大规模无标注语料中训练的预训练语言模型,可以使多方面NLP任务获得显著的性能提升。

  通过海量无标注语料来预训练神经网络模型,可以让人工智能更利于下游NLP任务的完成。预训练模型的作者已经设计出了基准模型,这样,使用者就可以在自己的NLP数据集上应用该模型,而无需从头开始构建模型来解决类似的问题。尽管后续过程需要进行一些微调,但这为人们节省了大量的时间和计算资源。

  2018年,无监督的双向预训练语言模型ELMo被提出,这种上下文相关的文本表示方法在多个典型任务上表现惊艳,能有效处理一词多义问题。紧随其后,GPT,BERT等预训练语言模型相继被提出,预训练模型技术开始在NLP领域大放异彩,并在各种下游任务中遍地开花。

  任务驱动模型出场

  “预训练语言模型因其强大的性能被广泛关注,基于‘预训练—微调’的范式也成为许多NLP任务的标准方法。”清华大学交叉信息研究院助理教授、RecurrentAI联合创始人杨植麟对《中国科学报》说,“然而,当前通用语言模型的预训练成本极其高昂,这使得只有少数资源充足的研究机构或组织能够对其展开探索。”

  为解决上述问题,杨植麟团队提出的一种完全不需要预训练语言模型的高效学习框架。这一框架从通用语料中筛选出与下游任务相关的子集,并将语言建模任务与下游任务进行联合训练。

  该论文第一作者、清华大学计算机科学实验班(姚班)大四本科生姚星丞介绍说,提出任务驱动的语言模型的想法源于一个基本的观察:人类可以通过对关键信息的学习,在有限的时间和精力投入情况下,快速掌握某一任务技能。例如,在临近考试时,学生仅根据考纲复习浏览若干相关章节的要点即可应对考试,而不必学习所有可能的知识点。与之类似,预训练语言模型在某一下游任务上的优良表现,“很有可能因为来自于语料中与下游任务相关的数据”。

  基于这一判断,该团队提出任务驱动的语言模型(TLM),它仅利用从大规模通用语料中提取的少量与下游任务相关的数据,就可以取得与全量数据类似的结果。

  “相较于传统的预训练模型RoBERTa(基于BERT的改进模型,使用更大的批次和更多的数据对模型进行更长的训练),TLM仅需要约1%的训练时间与1%的语料,即可在众多NLP任务上,表现出比肩甚至超出预训练模型的性能。”姚星丞说,“我们目前也正在尝试将任务驱动的方法推广到更大规模的模型上,如GPT-3或T5。”

  跳出预训练范式

  为了从大规模通用语料中抽取关键数据,TLM以任务数据作为查询对象,用基于稀疏特征的BM25算法作为召回算法,对通用语料库进行相似数据的召回。

  “除已有的下游任务数据以外,其余的语料均通过BM25算法进行相似性匹配而自动筛选,不需要人工做额外的选择与标记。”姚星丞说。“TLM基于任务数据和召回数据,同时优化任务目标和语言建模目标,从零开始进行联合训练。”

  为了测试TLM的性能,研究人员在8项NLP分类任务上,从三个不同规模展开了对比实验。这8项任务涵盖了计算机科学、生物医药、新闻、评论等4个领域,包括了训练样本数量小于5000的低资源任务和训练样本数量大于20000的高资源任务,任务类型覆盖了话题分类,情感分类,实体关系抽取等。

  测试结果显示,和对应“预训练—微调”基准相比,TLM实现了相当甚至更优的性能。平均而言,TLM减少了两个数量级规模的训练计算量以及训练语料的规模。整体来说,预训练模型以极高的成本学习尽可能多的,和任务无关的知识,而TLM以非常低的成本,针对每个任务学习相关知识。

  “当我们有少数特定目标的任务需要解决的时候(例如希望对少量几个数据集进行研究),TLM会是非常高效的。”姚星丞说,“而需要一次性解决大量任务时(例如工业界构建一个NLP平台为多方提供相似的服务),预训练模型仍然具有优势。”

  此外,TLM是任务驱动的,所以可以给研究人员更大的自由度,从而自定义策略进行标记、序列长度、数据表示、超参数的调整等等,从而达到提高性能和效率的目的。

  “TLM的提出,让NLP研究跳脱出‘预训练—微调’范式成为可能,这有利于推动NLP研究公平化。”杨植麟解释说,预训练本身严重依赖大量的计算资源,这一限制使大多数NLP研究者只能专注于对微调算法的研究。然而微调算法的性能上限,很大程度上受预训练模型性能的约束。而TLM可以让大多数研究人员可以以较低的代价和较高的效率,基于最先进的解决方案对模型架构、损失函数、算法等方面进一步自由探索。

  杨植麟认为,未来会有更多有趣的研究可以在TLM的基础上展开。例如,如何经济地达到更大规模预训练模型的表现效果;如何提升TLM的通用性与可迁移性;可否利用TLM进行小样本或零样本学习等。此外,还可以将预训练模型和TLM结合,从而在通用性和效率之间实现更好的权衡。(张双虎)

  相关论文信息:https://arxiv.org/pdf/2111.04130.pdf

  项目地址:https://github.com/yaoxingcheng/TLM

[ 责编:赵清建 ]
阅读剩余全文(

相关阅读

您此时的心情

光明云投
新闻表情排行 /
  • 开心
     
    0
  • 难过
     
    0
  • 点赞
     
    0
  • 飘过
     
    0

视觉焦点

  • 贵州贵阳:学习防灾减灾 筑牢安全防线

  • 广西钦州:大学生抱团创业传承发扬坭兴陶文化

独家策划

推荐阅读
据《自然》报道,联合国正在考虑设立31项新指标,以“补充并超越”全球衡量经济增长的主要指标——国内生产总值(GDP)。古特雷斯当天在美国纽约联合国总部举行的启动仪式上发表讲话,称该报告“迈出了纠正衡量进展方面长期存在的盲点的里程碑式的一步”。
2026-05-11 08:59
在中国科学院空间科学(二期)战略性先导科技专项的统筹布局下,依托中国科学院建制化优势,院内多家单位协同攻坚,成功完成卫星研制工作。接下来,中国科学院计划通过天地联合观测,深入开展有组织、体系化的前沿研究工作,解决一批国际公认的科学难题。
2026-05-11 08:58
面对质疑,路战远和团队天天扎进地里,一边在示范田讲技术,一边用实打实的产量说话。为了把技术讲清楚,路战远团队还自掏腰包,筹集经费40多万元,设计编撰了一套《保护性耕作技术·蒙汉对照》科普画册,把复杂的技术画成生动的漫画,让17万户农牧民看着漫画、学习技术。
2026-05-11 02:45
日前从中国科学院西北高原生物研究所获悉,全球唯一聚焦高寒、高海拔、强紫外特殊生境的专业化种质资源平台——青藏高原生物种质资源库
2026-05-11 03:15
旺季收购期间,国家粮食和物资储备局强化统筹组织,细化政策措施,相机灵活开展收储调控,多措并举推动产销衔接和农企对接,积极引导各类主体入市,不断激发市场购销活力,保障收购工作顺利开展。据初步统计,累计收购中晚稻1.03亿吨、玉米2.22亿吨、大豆1299万吨。河南、湖南、黑龙江3省启动中晚稻最低收购价执行预案,累计收购最低收购价中晚稻418万吨。
2026-05-11 02:45
“人类生活在大气之中,大气变化是有规律的,可以将其变化用方程方式来表示。” 李泽椿习惯用数据和公式说话,这位中国工程院院士、天气动力和数值预报专家说话慢条斯理,从没高声过。
2026-05-09 02:15
中医强调,“未病先防、既病防变、瘥后防复”。
2026-05-09 04:05
仓廪实,天下安。习近平总书记强调,只有农业强起来,粮食安全有完全保障,我们稳大局、应变局、开新局才有充足底气和战略主动。
2026-05-09 02:15
近期,某手机芯片厂商相关漏洞被不法分子定向利用,给网上热炒的“秒解BL锁”行为敲响了警钟。
2026-05-09 11:10
近日,我国国家高电压计量站自主研制的工频高电压标准互感器将作为核心“标尺”,用于国际电磁咨询委员会组织的30余国高电压量值比对。
2026-05-09 02:15
《行动方案》以能源支撑人工智能发展、人工智能赋能能源转型为主线,聚焦保障算力设施安全可靠的能源供给、推动算力设施绿色低碳转型、促进算力电力高效经济协同、
2026-05-09 02:15
从日前闭幕的第九届数字中国建设峰会可以看出,我国人工智能技术已迈过能聊天、拼参数的初级阶段,进入会干活、有价值的跃升期。好用,既是用户体验的直观标尺,也是我国人工智能从技术跟跑到创新引领、从规模扩张转向质量提升的关键抓手。
2026-05-08 09:14
4月23日,100多家仪器企业带着自己的拳头产品,参加第十九届中国科学仪器发展年会。一个是以技术创新切入的初创企业,一个是深耕多年的国产老牌厂商,纳析科技和海能技术的实践,正是国产科学仪器企业不断向上突破的缩影。
2026-05-08 09:14
记者日前从中国科学技术大学获悉:近日,该校郭光灿院士团队在实用化量子密钥分发研究方面取得重要进展。团队突破量子态制备和单光子探测技术在高速、高信噪比和集成度方面相互制约的难题,首次利用半导体单光子探测器,实现了超越超导探测系统的安全密钥率纪录。
2026-05-08 09:13
由该校基础医学院教授侯宇领衔的研究团队,首次破解多聚蛋白1在白血病干细胞中驱动免疫逃逸与自我更新的全新机制,
2026-05-08 04:35
这还是那个荒凉的沙漠吗?晴空丽日,10万株玫瑰竞相绽放,花瓣层层叠叠,点缀在沙海边缘。微风拂过,淡淡花香扑面而来……
2026-05-08 04:35
儿童科学本质教育在科学教育中有着举足轻重的作用,发展科学本质观是科学教育的核心目标之一。
2026-05-07 05:35
面对现实世界中日益复杂的预测需求,科研人员围绕大模型预测技术,走出了两大核心主线、四种具体技术路径。
2026-05-07 05:35
人工智能是德国提升国家科技创新能力、竞逐全球科技产业高点的关键领域。
2026-05-07 05:35
该校邢立达课题组与河北省区域地质调查院合作,对河北宣化土城子组两个新的恐龙足迹点展开研究,记录下该地层迄今最慢的兽脚类恐龙行迹,
2026-05-07 06:00
加载更多