【产通社,3月11日讯】联发科技股份有限公司(MediaTek Inc.;TWSE股票代码:2454)官网消息,其辖下的前瞻技术研究单位联发创新基地,继2023年初释出全球第一款繁体中文大型语言模型后,今日再度开源释出能够精准理解和生成中英两种语言的MediaTek Research Breeze-7B 70 亿参数系列大型语言模型供大众使用。MediaTek Research Breeze-7B基于开源界最热门的Mistral模型,较上一代繁体中文大型语言模型增加20倍以上的知识量,使 MediaTek Research Breeze-7B 能更精确掌握中英文的细微语言与文化差异,呈现更自然、准确的沟通以及双语内容创作。此外,在联发创新基地对模型的优化下,MediaTek Research Breeze-7B繁体中文的推理处理速度只需要市面上其他70亿参数级别的Meta或Mistral模型一半的时间,提供更顺畅的使用体验。 联发创新基地负责人许大山博士表示,“近期全球AI领域研究蓬勃发展,但多数研究与开发项目都以英文的大型语言模型进行。我们知道许多学术界专家与应用开发者,都在为推进繁体中文AI的创新与应用而努力,相信这次联发创新基地MediaTek Research Breeze-7B繁体中文大型语言模型开源将有益于学术界与业界在AI的发展,未来联发创新基地也将规划开源多模态模型,期待持续与学术界及业界共同开创AI领域的更多可能性。” 在市面上众多70亿参数级别的中英双语模型中,MediaTek Research Breeze-7B模型在对话与表格处理能力上都是领先者。MediaTek Research Breeze-7B能在更短的时间内理解并生成更流畅、精准的中英文回应,还能精准捕捉语境,提供高度相关且连贯的回答,为实时翻译、商业沟通、智能客服对话等需要快速反应的实时中英双语的场景提供显著的效能提升。此外,MediaTek Research Breeze-7B 也能精确地解读和生成表格内容,无论是数据分析、财务报表还是复杂的排程任务,都能够提供高效且可靠的支援,对于需要处理大量结构化数据的企业来说尤其重要。 此次联发创新基地MediaTek Research Breeze-7B的模型开源有助学术研究人员深入理解大型语言模型的运作机制,持续改进大型语言模型的幻觉问题(hallucination)与问答校准(alignment)等,以优化未来语言模型的生成结果。联发创基地也将不断地投入大型语言模型的开发,预计下一代以开源模型Mixtral为基础所训练的470亿参数大模型,将在近期开放给大众测试。 查询进一步信息,请访问官方网站http://www.mediatek.tw。(张怡,产通发布) (完)
|