 【产通社,5月5日讯】华南理工大学(South China University of Technology, SCUT)官网消息,由陈敏教授主导联合华中科技大学、琶洲实验室的科研团队在自然语言大模型小样本微调研究领域提出了极具创新性的方案——自然语言微调技术(NLFT)。该技术通过极低的计算资源和少量数据投入,显著提升了大模型在特定领域的效果。 在大语言模型(LLMs)微调领域,现有的模型微调技术主要为监督微调技术(SFT)、强化微调技术(ReFT)。相较传统微调方法,NLFT显著降低了技术门槛,使得更多科研机构和企业能够在常规计算设备上实现高效微调,这一成果不仅为大语言模型的普及铺平了道路,也为人工智能技术的普及应用提供了新的可能性。 人工智能大语言模型(LLM)在海量预训练后,往往具备一定的通用能力,而在特定细分领域的表现不尽如人意。为了提升模型在细分领域的针对性功能,传统的微调方法需要借助大量领域数据进行特定训练,如何在大模型的应用过程中解决高昂的算力需求和数据稀缺等问题,仍然是行业面临的巨大挑战。 在此情境下,陈敏教授科研团队提出的自然语言微调技术(NLFT)为解决这一问题提供了新的可能。查询进一步信息,请访问官方网站 http://news.scut.edu.cn/41/list3.htm。(张嘉汐,产通发布)  (完)
|