新榜讯 12 月 26 日,腾讯研究院重磅推出 DRT-o1 系列模型。该模型借助长思维链(long chain-of-thought,简称 CoT),能够更为精准地理解比喻和隐喻等内容,大幅提高文学作品的翻译质量。鉴于文学作品的表述往往富含深厚的文化及语境内涵,单纯的直译难以准确传递其深意。 据悉,研究人员从“古腾堡(Project Gutenberg)”计划中精选 400 本公共领域的英文书籍,提取出 577600 个句子,进而筛选出 63000 个涵盖明喻和隐喻的句子,用于对模型进行“深度思考”的训练。 DRT-o1 运用了一种独具创新的多智能体框架,包含翻译员、顾问和评估员这三个角色。翻译员主要负责初步翻译,顾问负责提供修改建议,评估员则依据预设指标为翻译质量打分,通过反复的迭代,持续提升翻译质量。 其工作流程涵盖三个关键步骤:关键词翻译,即翻译者率先识别句子中的关键词,并给出它们的翻译;初步翻译,随后翻译者依据源句子和关键词的双语对应关系提供初步的翻译;翻译精炼循环,在这一循环中,顾问对前一步的翻译进行评估并给予反馈,评估者按照预定义的评分标准给出整体评分,翻译者根据反馈和评分给出新的翻译。当评分达到预定义的阈值或者迭代次数达到最大值时,循环终止。 最终的翻译成果将由 GPT-4o 加以润色,以保障流畅性和可读性,最终的数据集囊括 22264 个历经深度思考的机器翻译样本。(来源:IT 之家)