切换到宽版
  • 11阅读
  • 2回复

[智能应用]苹果研究破解 AI“英语口音”难题,提升多语言自然性 [复制链接]

上一主题 下一主题
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君
 

发帖
134534
金币
173475
道行
20030
原创
757
奖券
107
斑龄
0
道券
0
获奖
0
座驾
设备
摄影级
在线时间: 14797(小时)
注册时间: 2012-06-21
最后登录: 2025-05-17
只看楼主 倒序阅读 使用道具 楼主  发表于: 14小时前
模型存在的“英语思维定式”问题,并提出创新解决方案。IT之家注意到,科研人员中不乏中国学者的存在。

研究人员针对非英语语种输出中普遍存在的语法与词汇偏差问题展开了深度剖析,测试覆盖中文、法语、英语(基于维基百科)语料。
测试发现,即使专为中文优化的 Qwen 模型,其母语表现仍落后人类水平;Meta 的 Llama 3.1 综合表现最佳,但自然度仍存在显著差距;所有模型在非英语输出中均残留英语语法结构。
换句话说,即使模型在用中文或法语进行对话,但它仍在用英语进行“思考”,而且非英语输出仍然遵循类似英语的语法和词汇模式。

针对大语言模型的遣词造句,研究团队提出两项量化指标:

  • 词汇自然性(Lexical Naturalness):评估 LLM 用词是否符合母语习惯
  • 句法自然性(Syntactic Naturalness):检验 LLM 语句是否贴合本土语法

为了缩小差距,研究人员通过“回译法”自动生成训练样本,将人工撰写的流畅中文内容先翻译成英文,再逆向翻译成带有 "翻译腔" 的“反面”样本。利用这类对比数据训练模型加强自然表达能力,在保持基准性能的前提下显著改善语言输出质量。
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
我有我可以
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君

发帖
134534
金币
173475
道行
20030
原创
757
奖券
107
斑龄
0
道券
0
获奖
0
座驾
设备
摄影级
在线时间: 14797(小时)
注册时间: 2012-06-21
最后登录: 2025-05-17
只看该作者 沙发  发表于: 14小时前
苹果研究破解 AI“英语口音”难题,提升多语言自然性
研究背景与问题发现
苹果与多国高校及研究院联合发布最新成果,揭示了大语言模型存在的英语思维定式问题。研究人员针对非英语语种输出中普遍存在的语法与词汇偏差问题展开深度剖析,测试覆盖中文、法语、英语(基于维基百科)语料。测试发现,即使专为中文优化的 Qwen 模型,其母语表现仍落后人类水平;Meta 的 Llama3.1 综合表现最佳,但自然度仍存在显著差距;所有模型在非英语输出中均残留英语语法结构。也就是说,即便模型在用中文或法语进行对话,实际上仍在用英语“思考”,非英语输出仍然遵循类似英语的语法和词汇模式。

量化评估指标
针对大语言模型的遣词造句,研究团队提出两项量化指标:

词汇自然性(Lexical Naturalness):评估大语言模型(LLM)用词是否符合母语习惯。
句法自然性(Syntactic Naturalness):检验 LLM 语句是否贴合本土语法。
创新解决方案
为了缩小模型输出与自然语言之间的差距,研究人员采用了“回译法”自动生成训练样本。具体做法是将人工撰写的流畅中文内容先翻译成英文,再逆向翻译成带有“翻译腔”的“反面”样本。然后利用这类对比数据训练模型,加强其自然表达能力,这样在保持基准性能的前提下能显著改善语言输出质量。

研究意义
这一研究对于提升大语言模型的多语言处理能力具有重要意义。在全球化的背景下,多语言交流的需求日益增长,大语言模型在跨语言沟通、信息获取等方面发挥着重要作用。解决“英语口音”问题,使模型能够更自然地输出非英语语种内容,有助于打破语言障碍,提高交流效率和质量,推动大语言模型在多语言场景下的更广泛应用。
如何不发帖就快速得到金币道行
 
我有我可以
在线jjybzxw

UID: 551814


发帖
153088
金币
153302
道行
2004
原创
2396
奖券
2690
斑龄
34
道券
969
获奖
0
座驾
设备
摄影级
在线时间: 35199(小时)
注册时间: 2008-10-01
最后登录: 2025-05-17
只看该作者 板凳  发表于: 4小时前
  针对大语言模型存在的“英语思维定式”问题,研究人员确实进行了深入研究,并提出了创新的解决方案。这些问题主要表现在非英语语种输出中普遍存在的语法与词汇偏差上。通过覆盖中文、法语、英语(基于维基百科)的语料测试,研究人员发现即使是专为中文优化的Qwen模型,在母语(中文)的表现上仍然落后于人类水平。Meta的Llama3.1模型虽然综合表现最佳,但在输出自然度上仍有显著差距。所有模型在非英语输出中均残留有英语语法结构,这意味着即使模型在使用中文或法语进行对话时,它们实际上仍在用英语进行“思考”,并且非英语输出遵循类似英语的语法和词汇模式。

  为了解决这些问题,研究团队提出了两项量化指标:

  1. 词汇自然性(Lexical Naturalness):这个指标用于评估大语言模型(LLM)使用的词汇是否符合母语习惯,即是否自然地融入了目标语言的文化和语境中。

  2. 句法自然性(Syntactic Naturalness):这个指标用于检验大语言模型生成的语句是否贴合本土语法,即是否遵循目标语言的语法规则。

  为了缩小模型输出与人类自然语言之间的差距,研究人员采用了“回译法”来自动生成训练样本。这种方法涉及将人工撰写的流畅中文内容先翻译成英文,然后再逆向翻译回中文,从而产生带有“翻译腔”的“反面”样本。通过对比这些样本和流畅的原文本,模型可以在训练中学习如何加强自然表达能力。这样的训练方法有助于在保持基准性能的同时,显著改善模型的语言输出质量,使其更贴近人类的自然语言习惯。

如何不发帖就快速得到金币道行
 
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个