> **来源:[研报客](https://pc.yanbaoke.cn)** # HY-MT: # 腾讯混元轻量级大模型的翻译训练与优化实践 # 目录Menu HY-MT近期进展 HY-MT效果与CASE分享 HY-MT训练方案详解 HY-MT应用场景能力建设 经验总结 未来展望 # 导师介绍 腾讯混元技术专家混元应用算法负责人 # 郑茂 现任腾讯混元技术专家,混元应用算法负责人。负责混元大模型在腾讯的应用落地,包括广告、社交、娱乐、教育、客服等业务的大模型应用层效果优化。 技术研究方向包括大模型复杂推理、多轮对话、翻译、RAG、AGENT等。在ACL、AAAI、EMNLP、COLING、CVPR等会议上发表数十篇论文。带领团队获得WMT2025翻译比赛诸多赛道第一名。 # HY-MT近期进展 # WMT2025 - 通用翻译赛道上,31个语种中30个语种第一(超过Gemini-2.5-pro、CLAUDE4、deepseek v3、qwen3、235b等模型)。 - 31个语种除了中文、英语、德语、日语等常见语种,也包含捷克语、马拉地语、爱沙尼亚语、冰岛语等小语种 <table><tr><td colspan="10">English-Simplified Chinese</td></tr><tr><td>System Name</td><td>LP Sup- ported</td><td>Params. (B)</td><td colspan="2">Humeval? AutoRank</td><td>ComketGiwEMBA- XL↑</td><td>GEMBA- ESA- CMDA ↑</td><td>GEMBA- ESA- GPT4.1 ↑</td><td>MetricX- 24- Hybrid- XL ↑</td><td>XCOME- XL↑</td></tr><tr><td>Shv-hunyuan-MT</td><td>✓</td><td>7</td><td>✓</td><td>1.0</td><td>0.67</td><td>87.2</td><td>88.3</td><td>-4.0</td><td>0.576</td></tr><tr><td>Wenyil</td><td>✓</td><td>14</td><td>✓</td><td>3.9</td><td>0.663</td><td>84.2</td><td>87.7</td><td>-5.0</td><td>0.52</td></tr><tr><td>▲Gemini-2.5-Pro</td><td>✓</td><td>?</td><td>✓</td><td>4.0</td><td>0.657</td><td>85.2</td><td>88.7</td><td>-4.9</td><td>0.512</td></tr><tr><td>Alghabr</td><td>✓</td><td>14</td><td>✓</td><td>4.1</td><td>0.66</td><td>84.7</td><td>87.8</td><td>-5.0</td><td>0.515</td></tr><tr><td>▲GPT-4.1</td><td>✓</td><td>?</td><td>✓</td><td>4.6</td><td>0.652</td><td>84.9</td><td>86.8</td><td>-5.0</td><td>0.512</td></tr><tr><td>▲Qwen3-235B</td><td>✓</td><td>235</td><td>✓</td><td>4.8</td><td>0.661</td><td>82.7</td><td>85.0</td><td>-5.0</td><td>0.513</td></tr><tr><td>Yolu</td><td>✓</td><td>14</td><td>✓</td><td>4.8</td><td>0.687</td><td>74.9</td><td>77.1</td><td>-4.6</td><td>0.542</td></tr><tr><td>GemTrans</td><td>✓</td><td>27</td><td>✓</td><td>4.9</td><td>0.658</td><td>77.0</td><td>80.2</td><td>-4.3</td><td>0.546</td></tr><tr><td>▲Mistral-Medium</td><td>?</td><td>?</td><td>✓</td><td>4.9</td><td>0.658</td><td>82.4</td><td>84.9</td><td>-5.0</td><td>0.514</td></tr><tr><td>Commanda-WMT</td><td>✓</td><td>111</td><td>✓</td><td>5.6</td><td>0.665</td><td>78.9</td><td>81.5</td><td>-5.0</td><td>0.508</td></tr><tr><td>Uva-AMT</td><td>✓</td><td>12</td><td>✓</td><td>6.3</td><td>0.671</td><td>76.8</td><td>78.0</td><td>-5.4</td><td>0.499</td></tr><tr><td>▲Claude-4</td><td>✓</td><td>?</td><td>✓</td><td>7.0</td><td>0.649</td><td>80.4</td><td>82.8</td><td>-5.6</td><td>0.487</td></tr><tr><td>▲DeepSeek-V3</td><td>✓</td><td>671</td><td>✓</td><td>7.1</td><td>0.618</td><td>84.9</td><td>85.1</td><td>-5.2</td><td>0.473</td></tr><tr><td>▲Llama-4-Maverick</td><td>✓</td><td>400</td><td>✓</td><td>8.0</td><td>0.65</td><td>74.9</td><td>79.4</td><td>-5.5</td><td>0.489</td></tr><tr><td>▲ONLINE-B</td><td>✓</td><td>?</td><td></td><td>8.2</td><td>0.656</td><td>73.0</td><td>74.7</td><td>-5.2</td><td>0.492</td></tr><tr><td>▲Gemma-3-27B</td><td>✓</td><td>27</td><td></td><td>9.0</td><td>0.638</td><td>75.5</td><td>78.7</td><td>-5.8</td><td>0.475</td></tr><tr><td>Lanigo</td><td>✓</td><td>9</td><td>✓</td><td>9.1</td><td>0.665</td><td>65.6</td><td>67.4</td><td>-4.9</td><td>0.513</td></tr></table> # 夺冠 # HY-MT开源 - 开源HY-MT1.5-7b、HY-MT1.5-1.8b、HY-MT-Chimera三个模型 - 重点支持33个语种互译。特色能力包括5种民汉语言/方言互译、俚语翻译等 - Huggingface首页趋势榜排名第一,HY-MT1.5开源28天下载量超30W次 # 开源 # 多场景应用落地 - 接入腾讯会议(实时翻译、会后翻译),腾讯游戏出海翻译、企业微信(聊天记录翻译、邮件翻译),微信读书(划词翻译、书籍翻译)、QQ浏览器(文件翻译、划词翻译),腾讯海外客服、腾讯云翻译等。 # 应用 # HY-MT效果与CASE分享 # HY-MT效果与CASE分享 (a) Model size versus Flores-200 (XX $\Leftrightarrow$ XX) translation quality for different-scale open-source models. (b) Model size versus WMT25 translation quality for different-scale open-source models. Figure 2: Comparison of model size versus translation quality across Flores-200 and WMT25 datasets for open-source models. # HY-MT效果与CASE分享 # 端侧翻译新标杆:腾讯混元1.5开源,1.8B模型离线运行,效果超主流商用API 关注前沿科技 量子位2025年12月31日19:10北京 混元团队 投稿 量子位|公众号QbitAI 在语言模型的比拼中,机器翻译一直被视为检验机器理解复杂语义和跨文化对齐能力的“试金石”。 面向端侧场景,12月30日,腾讯混元宣布推出并开源翻译模型1.5,经过量化,可支持端侧直接部署和离线实时翻译,仅需1GB内存即可流畅运行,并且在参数量极小的前提下,效果超过了大部分商用翻译API。 在常用的中外互译和英外互译测试集Flores200、WMT25以及民汉语言的测试集中,Tencent-HY-MT1.5-1.8B全面超越中等尺寸开源模型和主流商用翻译API,达到Gemini-3.0-Pro这种超大尺寸闭源模型的90分位水平。在WMT25和民汉翻译测试集上,其效果仅略微差于Gemini-3.0-Pro,远超其他模型。 kth8 opened 27 days ago I saw this model yesterday and played around with it a bit which seemed pretty good. Today I made a more comprehensive eval to test all 37 languages this supports. Methodology: tencent/HY-MT1.5-1.88-GGUF:Q8_0 is instructed to translate a randomly selected English phrase into a randomly selected target language. The model is then instructed to translate the target language text back into English. Both original and retranslated English text is judged by a secondary LLM for semantic equivalence. Foreign languages (No Chinese) results: "total Runs": 200, "equivalent": 172, "accuracy": "86.0%" Chinese variants results: "total Runs": 200, "equivalent": 180, "accuracy": "90.0%" Looks like this model is fairly usable in terms of accuracy and speed on edge devices. I've been using SOTA models like Kimi K2 for translating certain phrases before which can now be performed decently by $< 2\mathrm{B}$ local model. I used the recommended sampling settings. /llama-server\ --top-k 20 --top-p 0.6 --repeat-penalty 1.05 --temp 0.7 Test log if anyone wants to review it: Foreign languages - https://gist.github.com/kth8/7395b537d872af45564b5361a7039d6 Chinese - https://gist.github.com/kth8/2718036e7d87fb49f1c52f42fefc0c24 翻译界王炸模型出现,被字幕坑过的我终于等到救星! 原创Loki2046赛博小熊猫Loki 2025年09月08日09:00北京 本文字数3000+,图片51张,阅读时间约8分钟。 不知道你平常看不看英美日韩泰剧? 我在不忙的时候是很爱看的,有些节奏快、有些剧情曲折、有些日常温馨、有的狗血但就是吸引你往下看。 可以说不同的剧各有各的优点,但他们有一个共同的缺点——我听不懂!(好吧,这是我的缺点……) 当大模型翻译越来越没有人味,腾讯混元闷声干了件大事儿 Bubble BubbleBrain 2025年09月07日11:54上海 翻译这件事儿,自从有了通用的大语言模型之后似乎就变得没那么重要了。 毕竟对大部分人来说,以GPT、DeepSeek、Gemini之类的能力随手翻译个文章,报告什么的,真的信手拈来,大差不差看着也就行了。 但,腾讯不这么认为。 专业声乐领域的文献翻译,由于艺术的抽象加上专业术语,翻译难度具有代表性。 我给了它一大段文献里的内容。 实测第一关 速度非常快,翻译结果很准确,语言也不生硬。 # HY-MT效果与CASE分享 # 长难句 原文(摘自路透社): Trump's Republican allies and members of the administration, including Vice President JD Vance, took to social media to criticize lawmakers who had grilled the health secretary. "You're full of shit and everyone knows it," Vance said on X. 页面翻译: 特朗普的共和党盟友和政府成员,包括副总统JD Vance,在社交媒体上批评了抨击这位卫生部长的立法者。“你满身都是狗屎,每个人都知道,”万斯在X上说。 混元Hunyuan-MT-7B翻译: 特朗普的共和党盟友及政府官员(包括副总统JD·万斯)纷纷在社交媒体上批评那些严厉质问卫生部长的议员。万斯在X平台上表示:“你们满口胡言,大家都清楚这一点。” # 俚语 原文(摘自商业内幕):No matter how you slice it, the August jobs report showed a weakening labor market. 页面翻译: 不管你怎么切片,8月份的就业报告都显示劳动力市场疲软。 混元Hunyuan-MT-7B翻译: 无论从哪个角度来看,8月份的就业报告都显示劳动力市场正在疲软。 Hunyuan-MT-7B ① 模型详情 这波操作真的是6到飞起 翻译成英语 This round of operations is really amazing! # # HY-MT效果与CASE分享 <table><tr><td>场景</td><td>翻译原文(输入)</td><td>Tencent-HY-MT1.5-1.8B</td><td>Apple Translation</td></tr><tr><td>对话</td><td>你要是一直这么行事,不会有好果子吃。</td><td>If you keep acting this way, you won't end up with good results.</td><td>If you keep acting like this, you won't have good fruit to eat.</td></tr><tr><td>对话</td><td>Just had a game with an OG who knew all the secret spots on the map – totally blew my mind!</td><td>刚刚和一位老玩家一起玩游戏,他熟悉地图上所有的隐藏地点,真的让我大吃一惊!</td><td>刚刚和一个知道地图上所有秘密地点的OG进行了一场比赛——完全让我大吃一惊!</td></tr><tr><td>地名</td><td>Born in Shanghai, Maria attended FDU and later became a renowned biochemist.</td><td>玛丽亚出生于上海,曾就读于复旦大学,并后来成为了一位著名的生物化学家。</td><td>Maria出生于上海,就读于FDU,后来成为一名著名的生物化学家。</td></tr><tr><td>数量单位</td><td>The project is estimated to cost around five craterupees.</td><td>该项目预计耗资约五千万卢比。</td><td>该项目估计耗费约五亿卢比。</td></tr><tr><td>英文俚语</td><td>Get something off your chest</td><td>把心里的话说出来吧。</td><td>把一些东西从你的胸口说出来</td></tr><tr><td>英文俚语</td><td>It's on the house.</td><td>这是免费提供的。</td><td>它在房子里。</td></tr><tr><td>金融</td><td>The startupmanaged to raise $10 mil in its latest funding round, attracting investments from several high-profile venture capital firms and positioning itself for rapid growth in the tech industry.</td><td>这家初创公司在最新一轮融资中成功筹集了1000万美元的资金,吸引了几家知名风险投资公司的投资,为其在科技行业的快速发展奠定了基础。</td><td>这家初创公司在最新一轮融资中设法筹集了1000万美元,吸引了几家知名风险投资公司的投资,并在科技行业快速增长。</td></tr><tr><td rowspan="4">古诗</td><td>静夜思</td><td>Thoughts in a Quiet Night</td><td>Quiet Night Thoughts</td></tr><tr><td>李白(唐代)</td><td>Li Bai [Tang Dynasty]</td><td>Li Bai [Tang Dynasty]</td></tr><tr><td>床前明月光,疑是地上霜。</td><td>Before my bed, the moon shines bright; It seems like frost covering the ground.</td><td>The bright moonlight in front of the bed is suspected to be frost on the ground.</td></tr><tr><td>举头望明月,低头思故乡。</td><td>I lift my head and gaze at the moon; Then I bow my head, lost in thoughts of home.</td><td>Raise your head to look at the bright moon and bow your head to miss your hometown.</td></tr></table> # HY-MT效果与CASE分享 # HY-MT训练方案详解 # HY-MT训练方案详解 # 如何进行多语言培训 [CPT] 采集/合成大量多语种数据 涵盖33种语言和民族语言 对中英数据进行replay 防止多语言增训影响中英能力 P 多语言培训 D 训练数据语种配比 通过在小模型上进行实验,确定训练数据中最优语种配比 C 训练学习率调整 训练学习率从较小学习率warmup到pretrain的起始学习率,再进行cosine decay,平衡旧知识的遗忘和新知识的适应 # 如何获取高质量平行语料(SFT] # 高资源语种 先采用少量网络收集和内部人工标注的高质量数据训练一个融合模型,然后使用该融合模型,将多个效果领先的大模型翻译结果进行融合,最终得到质量更高的翻译结果 # 低资源语种 对于低资源语种,采用高资源语种(如英语)进行桥接得到低资源语种之间的平行语料,再通过多维度质量打分进行筛选 # 如何设计多语言RIM [RL] 通用翻译质量+领域翻译质量 如何设计多语言RM 2 3 ) 4 基于规则评估+基于模型评估 有参考评估+无参考评估 翻译独有RM+通用RM 多语言RM设计方法 # 如何提升低资源语种翻译效果 [RL] SSR (Simple Self-Rewarding) 强化学习训练方案 利用回译方法,只依赖单语数据即可训练。让模型把语种A文本翻译成语种B,再翻译语种A,通过计算两个语种A文本的相似性得到reward信号。 使用特定prompt对翻译质量进行打分,最终使用该打分进行GRPO强化学习训练。这样既能做到不依赖平行语料,又能做到翻译能力和翻译打分能力之间的相互促进。 <table><tr><td rowspan="3">Models</td><td colspan="7">ZH→EN</td><td colspan="7">EN→ZH</td></tr><tr><td colspan="2">WMT23</td><td colspan="2">WMT24</td><td colspan="2">Flores200</td><td rowspan="2">Avg.</td><td colspan="2">WMT23</td><td colspan="2">WMT24</td><td colspan="2">Flores200</td><td rowspan="2">Avg.</td></tr><tr><td>KIWI</td><td>XCM</td><td>KIWI</td><td>XCM</td><td>KIWI</td><td>XCM</td><td>KIWI</td><td>XCM</td><td>KIWI</td><td>XCM</td><td>KIWI</td><td>XCM</td></tr><tr><td colspan="15">Closed-Source LLMs</td></tr><tr><td>Claude-3.5-Sonnet</td><td>81.61</td><td>93.06</td><td>81.06</td><td>90.54</td><td>89.41</td><td>97.68</td><td>88.89</td><td>80.15</td><td>92.00</td><td>80.00</td><td>86.31</td><td>89.47</td><td>94.32</td><td>87.04</td></tr><tr><td>GPT-4o</td><td>80.92</td><td>92.15</td><td>79.90</td><td>89.06</td><td>88.94</td><td>96.50</td><td>87.91</td><td>76.71</td><td>88.56</td><td>77.42</td><td>83.95</td><td>88.30</td><td>93.30</td><td>84.71</td></tr><tr><td>Gemini-1.5-Pro</td><td>80.71</td><td>92.44</td><td>79.02</td><td>88.90</td><td>88.15</td><td>97.32</td><td>87.76</td><td>79.80</td><td>91.95</td><td>79.54</td><td>87.11</td><td>89.30</td><td>94.54</td><td>87.04</td></tr><tr><td colspan="15">Open-Source LLMs</td></tr><tr><td colspan="15">General Purpose LLMs</td></tr><tr><td>Qwen3-32B</td><td>79.74</td><td>90.79</td><td>79.20</td><td>88.47</td><td>87.68</td><td>95.75</td><td>86.94</td><td>76.94</td><td>89.75</td><td>76.96</td><td>84.10</td><td>87.45</td><td>92.18</td><td>84.56</td></tr><tr><td>Qwen3-32B</td><td>80.28</td><td>91.95</td><td>79.95</td><td>89.53</td><td>88.88</td><td>97.18</td><td>87.96</td><td>79.27</td><td>91.28</td><td>79.51</td><td>86.63</td><td>89.69</td><td>94.07</td><td>86.74</td></tr><tr><td>Qwen3-8B</td><td>78.30</td><td>89.03</td><td>77.99</td><td>86.94</td><td>85.82</td><td>93.89</td><td>85.33</td><td>74.94</td><td>88.22</td><td>75.39</td><td>82.25</td><td>86.08</td><td>91.02</td><td>82.98</td></tr><tr><td>Qwen3-8B</td><td>79.87</td><td>91.42</td><td>79.58</td><td>89.02</td><td>88.61</td><td>96.55</td><td>87.51</td><td>78.59</td><td>90.90</td><td>78.71</td><td>85.31</td><td>88.90</td><td>93.30</td><td>85.95</td></tr><tr><td>Qwen2.5-72B-Instruct</td><td>80.62</td><td>92.14</td><td>80.46</td><td>90.06</td><td>88.90</td><td>97.28</td><td>88.24</td><td>78.18</td><td>91.34</td><td>78.18</td><td>85.13</td><td>88.04</td><td>93.20</td><td>85.68</td></tr><tr><td>Qwen2.5-32B-Instruct</td><td>77.73</td><td>89.28</td><td>78.77</td><td>88.69</td><td>87.13</td><td>95.50</td><td>86.18</td><td>77.73</td><td>90.23</td><td>78.77</td><td>83.48</td><td>87.13</td><td>91.99</td><td>84.89</td></tr><tr><td>Qwen2.5-72B-Instruct</td><td>77.56</td><td>89.40</td><td>76.71</td><td>87.12</td><td>86.28</td><td>94.06</td><td>85.19</td><td>73.81</td><td>88.11</td><td>72.98</td><td>80.93</td><td>85.18</td><td>89.90</td><td>81.82</td></tr><tr><td>QwQ-32B</td><td>74.61</td><td>85.12</td><td>75.08</td><td>84.34</td><td>80.88</td><td>89.21</td><td>81.54</td><td>77.33</td><td>89.10</td><td>78.13</td><td>85.03</td><td>86.51</td><td>90.93</td><td>84.51</td></tr><tr><td>Gemau2-27B-it</td><td>80.32</td><td>91.96</td><td>79.42</td><td>89.14</td><td>88.64</td><td>96.72</td><td>87.70</td><td>76.95</td><td>90.50</td><td>77.38</td><td>84.17</td><td>87.79</td><td>92.51</td><td>84.88</td></tr><tr><td>Gemau2-9B-it</td><td>79.86</td><td>91.21</td><td>79.25</td><td>88.41</td><td>88.32</td><td>96.25</td><td>87.22</td><td>75.22</td><td>89.66</td><td>74.15</td><td>81.65</td><td>85.95</td><td>90.90</td><td>82.92</td></tr><tr><td colspan="15">MT-Specific</td></tr><tr><td>TowerInstruct-7B-v0.2</td><td>77.78</td><td>89.13</td><td>76.96</td><td>85.98</td><td>86.95</td><td>94.88</td><td>85.28</td><td>73.53</td><td>87.46</td><td>70.87</td><td>77.53</td><td>84.39</td><td>88.57</td><td>80.39</td></tr><tr><td>TowerInstruct-13B-v0.1</td><td>78.53</td><td>89.90</td><td>77.57</td><td>87.12</td><td>87.30</td><td>95.80</td><td>86.04</td><td>75.56</td><td>89.28</td><td>73.81</td><td>80.81</td><td>86.22</td><td>90.69</td><td>82.73</td></tr><tr><td>DeepTrans-7B</td><td>/</td><td>/</td><td>/</td><td>/</td><td>/</td><td>/</td><td>/</td><td>80.01</td><td>89.00</td><td>78.89</td><td>83.85</td><td>89.23</td><td>92.85</td><td>85.64</td></tr><tr><td>GemxaX2-28-9B-v0.1</td><td>79.40</td><td>90.63</td><td>78.71</td><td>88.60</td><td>87.85</td><td>96.33</td><td>86.92</td><td>77.10</td><td>90.68</td><td>75.88</td><td>83.33</td><td>87.58</td><td>92.83</td><td>84.57</td></tr><tr><td colspan="15">Ours</td></tr><tr><td>Qwen2.5-7B</td><td>62.62</td><td>75.69</td><td>69.04</td><td>77.33</td><td>73.62</td><td>85.54</td><td>73.97</td><td>68.25</td><td>81.63</td><td>64.28</td><td>69.48</td><td>82.00</td><td>86.07</td><td>75.29</td></tr><tr><td>SSR-Zero-7B</td><td>79.29</td><td>92.04</td><td>79.04</td><td>89.19</td><td>87.97</td><td>96.70</td><td>87.37</td><td>79.69</td><td>91.18</td><td>79.34</td><td>85.34</td><td>89.25</td><td>93.52</td><td>86.39</td></tr><tr><td>SSR-X-Zero-7B</td><td>80.62</td><td>91.92</td><td>80.56</td><td>89.42</td><td>88.84</td><td>96.62</td><td>88.00</td><td>81.11</td><td>91.56</td><td>79.67</td><td>86.75</td><td>90.08</td><td>93.98</td><td>87.19</td></tr></table> 低资源语种效果达到同尺寸SOTA # 如何提升术语翻译效果 [RL] TAT-R1训练方法 在强化学习训练阶段,提出TAT-R1训练方法,在RM中引入术语词对齐、术语出现顺序、思维链是否包含关键术语等维度 <table><tr><td rowspan="2">Models</td><td colspan="5">EN->DE</td></tr><tr><td>BLEU</td><td>COMETKiwi</td><td>XCOMET</td><td>TA</td><td>Avg.</td></tr><tr><td>Baseline</td><td>25.87</td><td>67.05</td><td>88.65</td><td>53.29</td><td>58.72</td></tr><tr><td>NER + prompt</td><td>25.93</td><td>67.11</td><td>88.74</td><td>53.35</td><td>58.78</td></tr><tr><td>RL-Rcomet</td><td>24.52</td><td>70.26</td><td>90.17</td><td>54.42</td><td>59.84</td></tr><tr><td>RL-Rcomet+RBLEU</td><td>27.37</td><td>66.49</td><td>88.77</td><td>54.91</td><td>59.39</td></tr><tr><td>RL-Rcomet+Raaw</td><td>26.21</td><td>71.33</td><td>90.56</td><td>55.57</td><td>60.92</td></tr><tr><td>RL-Rcomet+Raaw+RaaS</td><td>26.34</td><td>72.04</td><td>90.99</td><td>55.73</td><td>61.28</td></tr><tr><td>RL-Rall (TAT-R1)</td><td>27.10</td><td>73.82</td><td>91.22</td><td>56.42</td><td>62.14</td></tr></table> 通用翻译能力不下降的情况下,模型术语翻译效果大幅度提升 # HY-MT应用场景能力建设 # 带格式翻译 典型场景: 企微邮件翻译,QQ浏览器网页翻译,腾讯视频字幕翻译。 # 实时翻译 典型场景: 腾讯会议会中翻译,腾讯财报会同声传译,QQ浏览器视频/直播翻译 # 术语、例句库翻译 典型场景: 定制化翻译需求的场景、领域翻译专业度要求高 # 词典翻译&解释性翻译 典型场景: 划词翻译、教育场景倡议能力 # HY-MT应用场景能力建设 # 带格式翻译 # Dear Zheng, A majority of the attendees at the 31st International Conference on "The 2015 World Congress on the WHO Age and are already using it to plan various activities, such as: Find people to share a cab (or Uber/Lyft) to go to the conference/event together - Scheduling meet-ups with people from the same country/state - Plan activities that are similar to those of other cities such as a morning run, city tour, or meet-ups with your fellow attendees - Posting job openings to recruit talent - Reaching out to other attendees and planning face-to-face meetings Don't miss out! You can download Whova app here: # Download app To protect user data, we require two-factor authentication at sign-in. After entering your email and password, a verification code will be sent to your email. Please check your Inbox and spam folder for the code. Detailed instructions can be found here. If asked for an invitation code, please use: 2501COLING (Please do not share this invitation code with people who are NOT attendees of the event). Already used the Whovap app in the past? Double-check that it is installed on your phone, and log in using your existing account email and password. Have a great time at the event! # 亲爱约郑, 在第3篇国际计算语言学大会上,大多数与会者已经下载了Whoa应用程序并且已经在用它来规划各种活动。例如: 找人来拼车(或者使用优步/来福车)一起去参加会议/活动 安排舞合与来自同一国家/州的人 计划一些社交活动,比如晨跑、城市游览,或者与与会者一起聚会。 - 发布职位空缺以招聘人才 联系其他与会者并计划面对面会议 不要错过!你可以在这里下载Whova应用程序 # 下载应用程序 为了保护用户数据,我们在登录时要求使用密码或数字的电子邮箱和密码。在登录时,要先检查密码或数字的密码或邮箱。登录页面的收藏菜单和隐藏文件菜单中的代码编辑器则可以在主浏览器上显示。 如果需要邀请码,请使用:2501COLING(请不要与非与会者分享此邀请码)。 过去已经使用过Whoa应用程序吗?请再次确认它已安装在您的手机上,并使用您现有的账户电子邮件和邮箱登录。 在活动中玩得开心! # 解决方案: - 设计一协议承载原始格式信息,可以多个相邻文本一起翻译,保证翻译语义套连贯性。 - 借助LLM和词对齐等工具构造训练数据,并人工check确保数据质量 - SFT进行冷启+GRPO强化提升效果,reward既关注翻译质量也关注格式信息保留效果 # 实时翻译 # 解决方案: - 模型小型化,采用更小激活参数模型 - 补充口语化数据,通过强化学习不断提升效果 - 重点增强多轮对话场景的模型上下文翻译一致性 # HY-MT应用场景能力建设 # 术语、例句库翻译 Spring具有以下的以下含义,请根据上下文选择合适的翻译: 1.春天 Spring is the season of new beginnings. (春天是新的开始的季节。) 2. 弹簧 The mattress has a lot of springs. (床垫有很多弹簧。) 请把下面的文本翻译成中文 The spring in the pen is broken. 笔里的弹簧坏了。 字数:8 | 输入tok Spring具有以下的以下含义,请根据上下文选择合适的翻译: 1.春天 Spring is the season of new beginnings. (春天是新的开始的季节。) 2. 弹簧 The mattress has a lot of springs. (床垫有很多弹簧。) 请把下面的文本翻译成中文 I love the flowers in spring. 我喜欢春天的花。 解决方案: 建设翻译系统,提供可编辑、实时生效的术语、例句库检索模块 提升模型的术语指令遵循能力,适应多种语境 # 词典翻译&解释性翻译 cryptocurrency 英/'kriptəukArənsi/美/'kriptouk3:rənsi/ n. 加密货币(一种基于密码学技术的数字资产,不依赖中央银行或政府发行,如比特币、以太坊等) compliance 英/kəm'plaɪəns/美/kəm'plaɪəns/ n. 服从;遵守;合规;符合(标准或要求) 翻译: 英雄所见略同。 解释: “Great minds think alike” 是一句常用英语谚语,字面意为“伟大的头脑想法相似”,用于表达两人或多人在某个问题上不谋而合,有着相同的看法或思路,是对彼此共识的一种友好且略带夸赞的表达。 解决方案: 词典知识注入:收集词典数据,如牛津词典、 21世纪大英汉词典等 例句解释知识注入:解释性翻译数据收集 # 经验总结 # 高质量数据获取和构造是重中之重 - 离线构造和获取数据花费精力最多,时间最长 - 构造数据环节可以做很多模型优化的工作,辅助提升数据质量 # Reward Model如何定义清晰非常有挑战 - 信达雅是否足够 - 多样化指令遵循如何满足 # 强化学习阶段要稳定、长时间训练 - 强化学习算法的优化不可小觑,是拉开效果差距的关键 - 训练效率很关键 # 未来展望 # DENSE模型架构升级 # 文本翻译 # 翻译模型 MOL侯呈来构 记住更多词汇、支持更长上下文 2 陕心韵评 语音端到端翻译、图片/视频翻译 3 助评AGENT 用memory解决长文翻译一致性等问题 # 感谢观看! # Thank you # AI开源模型部署和开发实战教学 # 目录Menu 部署方案概览 HuggingFace Transformers VLLM高性能引擎 LM Studio图形化部署 - 方案对比与选型建议 # 为什么需要本地部署大模型? # 数据隐私保护 敏感数据无需上传至云端,完全在本地环境处理,满足企业合规要求与数据主权需求。 # 定制化能力 支持模型微调、量化、私有化部署,可根据业务需求深度定制模型能力与推理参数。 # 成本控制 长期使用成本显著低于API调用,高频场景下可节省 $60\%$ 以上费用,无调用次数限制。 # 离线可用性 无需网络连接即可运行,适用于内网环境、边缘计算、移动设备等离线场景。 # > 部署方案概览 三种主流技术路线,各有优势与适用场景 HuggingFace Transformers VLLM LM Studio <table><tr><td>对比维度</td><td>HuggingFace Transformers</td><td>VLLM</td><td>LM Studio</td></tr><tr><td>技术架构</td><td>PyTorch/TensorFlow封装Pipeline统一接口</td><td>PagedAttention引擎C++/CUDA优化</td><td>llama.cpp引擎GGUF格式支持</td></tr><tr><td rowspan="2">性能表现</td><td>★★☆☆☆</td><td>★★★★★</td><td>★★★☆☆</td></tr><tr><td>原生推理效率较低</td><td>吞吐量提升24倍</td><td>CPU/GPU混合推理</td></tr><tr><td rowspan="2">易用性</td><td>★★★☆☆</td><td>★★★☆☆</td><td>★★★★★</td></tr><tr><td>Python代码调用</td><td>Docker/API部署</td><td>图形界面操作</td></tr><tr><td rowspan="2">硬件要求</td><td rowspan="2">GPU推荐显存8GB+</td><td>NVIDIA GPU必须</td><td>CPU即可运行</td></tr><tr><td>显存16GB+</td><td>GPU加速可选</td></tr><tr><td rowspan="2">适用场景</td><td rowspan="2">快速原型验证小规模推理</td><td>生产环境</td><td rowspan="2">个人桌面体验教育演示</td></tr><tr><td>高并发API服务</td></tr><tr><td rowspan="2">核心优势</td><td rowspan="2">生态丰富灵活性高</td><td>极致性能</td><td>零代码</td></tr><tr><td>显存优化</td><td>开箱即用</td></tr></table> HuggingFace Transformers # Transformers Pipeline工作原理 # Pipeline核心概念 统一接口封装:将模型加载、预处理、推理、后处理封装为简单API,一行代码完成任务 多任务支持:text-generation、text-classification、question-answering、translation等 自动模型管理:自动从HuggingFace Hub下载模型,支持本地缓存与版本控制 # 工作流程 1 输入文本 用户输入prompt或待处理文本 2 Tokenizer预处理 文本编码为token序列 3 模型推理 神经网络前向计算生成输出 4 输出解码 token序列解码为人类可读文本 # </代码示例 我们以tencent/HY-MT1.5-1.8B为例: ```python from modelscope import AutoModelForCausalLM, AutoTokenizer import os ``` ```hcl model_name_or_path = "tencent/HY-MT1.5-1.8B" ``` ```python tokenizer = AutoTokenizer.from_pretrained(model_name_or_path) ``` ```python model = AutoModelForCausalLM.from_pretrained(model_name_or_path, device_map="auto" bfloat16 and/or move to GPU here ``` ```txt messages = [ ``` ```jsonl {"role": "user", "content": "Translate the following segment into Chinese, with explanation.\n\nIt's on the house.}}, ``` ```txt tokenizer chat = tokenizer.apply chat_template messages, ``` ```txt tokenizer=True, ``` ```txt add_generation_prompt=False, ``` ```txt return_tensors="pt" ``` ) ```txt outputs = model_generate(tokenized chatting.to(modeldevice), max_new_tokens=2048) output_text = tokenizerdecode(output[0]) ``` # vLLM > VLLM # VLLM核心创新:PagedAttention # 核心思想:操作系统虚拟内存分页 - PagedAttention借鉴操作系统虚拟内存分页思想,将KV Cache划分为固定大小的Block进行动态管理,实现显存的高效利用。 # 逻辑块 (Logical Block) 每个请求的KV Cache在逻辑上划分为固定大小块(如16 tokens) # 物理块 (Physical Block) GPU显存中预分配的物理页,按需动态分配 # Block Table映射机制 #请求A的Block Table request_a.block_table = [15, 88, 3, 92] 逻辑块0 $\rightarrow$ 物理块15 逻辑块1 $\rightarrow$ 物理块88 逻辑块2 $\rightarrow$ 物理块3 逻辑块3 $\rightarrow$ 物理块92 通过Block Table实现逻辑序列到物理存储的解耦,支持非连续内存存储,大幅提升显存利用率。 # PagedAttention vs 传统KV Cache <table><tr><td>对比项</td><td>传统方式</td><td>PagedAttention</td></tr><tr><td>内存分配</td><td>连续预分配</td><td>分页动态分配</td></tr><tr><td>显存碎片</td><td>严重(60-80%浪费)</td><td>极低(<4%)</td></tr><tr><td>并发能力</td><td>低</td><td>极高</td></tr><tr><td>长上下文</td><td>容易OOM</td><td>可扩展</td></tr><tr><td>显存效率</td><td>~40%</td><td>>95%</td></tr></table> # 核心优势 √ 显存碎片大幅降低 固定大小Block,请求结束后立即回收复用 支持超高并发 不同长度请求可混合执行,动态分配KV Cache √ 天然支持长上下文 KV Cache可按需增长,无需预分配最大长度 # VLLM性能优势与部署方式 # 性能数据对比 吞吐量提升 24x vs HuggingFace Transformers 显存利用率 2x PagedAttention优化 显存效率 95%+ 动态分配与回收 # 核心特性 持续批处理 Continuous Batching 量化支持 GPTQ/AWQ/INT8 张量并行 Tensor Parallelism OpenAI兼容 API格式兼容 > Lm Studio/Ollma 图形化部署 # LM Studio核心特性 # 图形化界面 无需编写代码,通过直观的图形界面完成模型下载、加载、配置和对话。适合非技术用户快速上手。 # 内置模型市场 内置HuggingFace模型市场,支持搜索、浏览、一键下载开源模型。自动管理模型版本与依赖。 # GGUF量化支持 原生支持GGUF格式模型,提供多种量化级别选择[Q4_K_M、Q8_O等],大幅降低显存占用。 # llama.cpp引擎 基于高性能llama.cpp推理引擎,支持CPU和GPU混合推理,在消费级硬件上也能流畅运行大模型。 # OpenAI兼容API 提供本地API服务,完全兼容OpenAI API格式,可无缝集成到现有应用中。 API端点 http://localhost:1234/v1 # 适用人群 非技术用户、教育工作者、学生、快速原型验证者,以及希望在本地体验大模型但不想编写代码的用户。 # 感谢观看! # Thank you