蚂蚁集团发布F2LLM-v2:让全世界282种语言都能拥有"智能翻译官"

  就在 2026 年 3 月,蚂蚁集团与上海交通大学的研究团队发表了一项令人瞩目的研究成果,名为《F2LLM-v2 技术报告:面向多语言世界的包容、高性能、高效嵌入模型》。这项研究发表在 arXiv 预印本平台,编号为 2603.19223v1,有兴趣深入了解的读者可以通过这个编号查询完整论文。

  在我们的数字时代,语言障碍仍然是一堵看不见的墙。想象一下,当你在网上搜索信息时,大部分先进的人工智能工具只能理解英语或几种主要语言,而世界上其他数百种语言的使用者却被拒之门外。这就好比拥有一把万能钥匙,却发现它只能打开少数几扇门。蚂蚁集团的研究团队意识到了这个问题的严重性:现在的嵌入模型(可以理解为 AI 的"语言理解器")过分偏向英语,对其他语言的支持远远不够。

  这项研究的独特之处在于,它不仅仅是又一个技术改进,而是一次真正意义上的"语言民主化"尝试。研究团队开发的 F2LLM-v2 模型家族,能够理解和处理 282 种自然语言和 40 多种编程语言。这意味着,无论你说的是德语、阿拉伯语、越南语,还是相对小众的波斯语或印地语,这个 AI 系统都能像理解英语一样流畅地理解你的意思。

  更令人印象深刻的是,研究团队完全使用公开可获得的数据来训练这些模型,没有依赖任何商业秘密或封闭数据源。他们从 157 个不同的公开数据源收集了 6000 万个训练样本,就像是在全世界的图书馆里精心挑选最有价值的书籍,然后教会 AI 如何阅读和理解它们。

  这个模型家族包含 8 个不同规模的版本,从最小的 8000 万参数到最大的 140 亿参数,就像提供了从小型轿车到大型卡车的完整车队,让不同需求的用户都能找到合适的选择。最大的模型在 11 个国际基准测试中取得了第一名的成绩,而较小的模型也在各自的规模级别中表现优异。

  这项研究的意义远不止于技术突破。它代表了人工智能向真正全球化和包容性发展的重要一步,让世界各地的人们都能享受到先进 AI 技术带来的便利,而不再受到语言壁垒的限制。

  一、当前 AI 语言理解的"偏科"问题

  在人工智能的世界里,嵌入模型扮演着至关重要的角色。可以把它们想象成 AI 的"语言理解器",负责将人类的文字转换成计算机能够处理的数字形式。这些模型广泛应用于搜索引擎、智能客服、文档分类等各种我们日常接触的应用中。

  然而,现在的情况就像是我们拥有一个非常聪明的翻译员,但这个翻译员只精通英语和少数几种主要语言。当面对阿拉伯语、印地语或者越南语时,他的表现就会大打折扣。研究团队发现,目前最先进的嵌入模型存在严重的"英语中心主义"倾向。

  这种偏向性的根源在于训练数据的不平衡。就像一个学生如果只学习数学而忽略其他科目,他在数学考试中可能表现优异,但在语文或历史考试中就会捉襟见肘。大多数现有的模型都是在以英语为主的数据上训练的,导致它们在处理其他语言时表现不佳。

  更让人担忧的是,许多顶级的嵌入模型都是"黑盒子",只提供 API 接口供人调用,而不公开其训练数据和方法。这就像是一家餐厅只让你品尝美食,却绝不透露食谱一样。这种不透明性阻碍了整个领域的进步,也让研究人员无法改进现有技术。

  国际文本嵌入基准测试 MTEB 虽然覆盖了 250 多种语言,但实际上大部分注意力仍然集中在英语和中文上。以波兰语基准测试为例,在 F2LLM-v2 发布之前,只有一个模型提交了完整的测试结果。这种现象反映了整个行业对多语言支持的忽视。

  这种语言不平等现象对全球数亿人产生了实际影响。想象一下,如果你是一名使用阿拉伯语的医生,想要利用 AI 来搜索最新的医学文献,却发现系统对你的查询理解有限,给出的结果不够准确。或者你是一名越南语的程序员,希望利用智能代码搜索工具来提高工作效率,却发现工具对你的需求理解不够精确。这些都是真实存在的问题,影响着全球用户享受 AI 技术带来的便利。

  研究团队意识到,要解决这个问题,不仅需要技术创新,更需要一种全新的理念:让 AI 真正服务于全人类,而不只是说英语的那一部分人。这种理念催生了 F2LLM-v2 项目,一个致力于打破语言壁垒的雄心勃勃的计划。

  二、F2LLM-v2 的训练数据:一座覆盖全球的"图书馆"

  构建一个真正多语言的 AI 模型,就像建造一座包含全世界知识的图书馆。F2LLM-v2 的训练数据收集工作堪称一项浩大的工程。研究团队从 157 个不同的公开数据源中精心筛选,最终汇集了 6000 万个高质量的训练样本。

  这些数据涵盖了 282 种自然语言,从使用人数众多的英语、中文、俄语、西班牙语,到相对小众但同样重要的越南语、波斯语、阿拉伯语等。数据分布呈现出有趣的特点:英语占据 28.7% 的份额,中文占 7.7%,俄语占 6.1%,但研究团队特意确保了其他语言也能获得充分的代表性。

  除了自然语言,这个"图书馆"还收录了 40 多种编程语言的代码,从最流行的 Python、Java、JavaScript,到相对专业的 Rust、Haskell 等。这意味着模型不仅能理解人类的自然语言,还能理解程序员编写的代码,为代码搜索和程序理解提供强大支持。

  更重要的是,研究团队坚持使用完全公开透明的数据源。他们没有像某些商业公司那样使用私有数据或网络爬取的未授权内容,而是严格选择了公开可获得的高质量数据集。这种做法就像是在建造一座对所有人开放的公共图书馆,而不是一个只有少数人能进入的私人收藏室。

  在数据的功能多样性方面,这个训练集包含了各种不同类型的任务。其中 35.5% 是问答数据,24.8% 是双语文本挖掘数据,11.9% 是指令数据,还有标题匹配、自然语言推理、代码理解等多种类型。这种多样性确保了模型能够应对各种实际应用场景,就像培养一个多才多艺的学生,让他不仅会数学,还懂得语文、历史、科学等各个学科。

  研究团队采用了一种巧妙的数据处理策略,将所有不同格式的数据统一转换为三种标准格式:检索、聚类和二元分类。这就像是将各种不同形状的拼图块都加工成标准形状,让它们能够无缝拼接在一起。检索格式包含查询、相关文档和困难负样本的三元组;聚类格式用于处理多分类任务,通过采样同类正样本和不同类负样本来学习;二元分类格式直接使用类别标签作为正负样本。

  为了提高训练效果,研究团队还采用了批内负采样和显式困难负样本相结合的策略。批内负采样就像是在一个班级里让学生互相比较学习,而显式困难负样本则像是专门设计一些有挑战性的题目来考验学生的真实水平。这种组合确保了模型不仅能区分明显不同的内容,还能在相似内容之间做出精细的判断。

  与现有的一些开源数据集相比,F2LLM-v2 的训练数据展现出更加均衡的语言分布。例如,KaLM-Embedding 数据集中英语和中文占据了绝大部分比例,而 F2LLM-v2 虽然英语仍然占最大份额,但为其他语言留出了更多空间,真正体现了多语言的包容性。

  这种数据收集和处理方式的最大意义在于,它为构建一个真正全球化的 AI 系统奠定了基础。不再是某种语言的"专属工具",而是能够为全世界不同语言使用者提供平等服务的"通用助手"。

  三、八个规模的模型家族:从轻便小车到重型卡车

  F2LLM-v2 并不是单一的模型,而是一个包含 8 个不同规模成员的完整家族,参数规模从 8000 万到 140 亿不等。这种设计理念就像汽车制造商提供从经济型轿车到豪华 SUV 的完整产品线,让不同需求和预算的用户都能找到合适的选择。

  这个模型家族的构成相当精妙。最小的三个模型(8000 万、1.6 亿、3.3 亿参数)是通过模型剪枝技术从 6 亿参数模型中得来的,就像是从一辆大卡车上拆下一些不必要的部件,改造成更轻便但仍然实用的小货车。而从 6 亿到 140 亿参数的五个模型则直接对应 Qwen3 大语言模型的不同版本,确保了强大的基础能力。

  所有模型都采用标准的密集 Transformer 解码器架构,使用 EOS(句子结束)标记的最后隐藏状态作为序列表示。这种设计就像是给所有车型装配同样品牌的发动机,保证了性能的一致性和可靠性。从最小的模型每层只有 8 个 Transformer 层,到最大模型的 40 层,形成了一个完整的性能阶梯。

  更引人注目的是,所有模型都支持 Matryoshka 表示学习(MRL),这是一项非常实用的技术创新。传统的嵌入模型就像是一个固定尺寸的箱子,无论装什么东西都占用同样的空间。而支持 MRL 的模型就像是一个可调节大小的智能箱子,可以根据实际需要调整容量。

  具体来说,当你需要高精度结果时,可以使用完整的嵌入维度,比如最大模型的 5120 维。但当你需要快速处理大量数据,对精度要求不那么苛刻时,可以只使用前面的 128 维甚至 32 维,大大提升处理速度并节省存储空间。研究结果显示,3.3 亿参数模型使用完整的 896 维嵌入的性能,与 80 亿和 140 亿模型使用 32 维嵌入的性能相当,这为用户提供了灵活的性能与效率平衡选择。

  研究团队采用了创新的两阶段训练策略。第一阶段专注于建立稳固的语义基础,选择了 7 个大规模、语言覆盖广泛的检索数据集,总计 2700 万样本,包括 CodeSearchNet、MMARCO、CLIRMatrix 等。这个阶段就像是给学生打好基础,让他们掌握各种语言的基本理解能力。

  第二阶段则致力于提升模型处理复杂下游应用的能力,包括分类、重排序、释义检测等任务。研究团队从每个数据源最多采样 8 万个查询,生成了 1800 万个样本的混合训练集。在这个阶段,他们为查询添加了任务特定的指令,并对 30% 的文档和负样本随机应用指令,增强了模型对不同任务类型的适应能力。

  对于较小的模型,研究团队使用了知识蒸馏技术,这就像是让优秀的老师指导年轻的学生。通过计算学生模型和教师模型在序列嵌入上的均方误差,小模型可以学习到大模型的精华知识,在保持高效率的同时尽可能保持好性能。实验结果证明,知识蒸馏为各个规模的模型都带来了显著的性能提升。

  训练过程中使用的技术细节也体现了研究团队的用心。他们使用 AdamW 优化器,并为不同规模的模型设置了不同的学习率,从小模型的 4e-5 到大模型的 5e-6,确保每个模型都能得到最适合的训练参数。训练轮次也根据模型大小进行调整,小模型训练 4 轮,而大模型只需训练 2 轮,体现了参数量与训练效率之间的平衡。

  这种精心设计的模型家族架构,让用户可以根据自己的具体需求选择最合适的版本。如果你是个人开发者,预算和计算资源有限,可以选择小规模模型;如果你是大企业,追求极致性能,可以选择最大的 140 亿参数版本。无论选择哪个版本,都能获得优秀的多语言理解能力,这正是 F2LLM-v2 设计理念的精髓所在。

  四、破纪录的性能表现:在 11 个基准测试中夺冠

  当谈到 AI 模型的性能时,最令人信服的证据就是在标准化基准测试中的表现。F2LLM-v2 在这方面的成绩可谓令人刮目相看。研究团队在 17 个 MTEB 基准测试上对模型进行了全面评估,这些测试涵盖了 430 个具体任务,涉及十种不同的任务类型:检索、重排序、分类、聚类、成对分类、语义文本相似度、双语文本挖掘、摘要、指令重排序和多标签分类。

  最大的 F2LLM-v2-14B 模型在 11 个基准测试中取得了第一名的成绩,包括欧洲语言、斯堪的纳维亚语言、印度语系、德语、法语、韩语、波兰语、中文、日语、荷兰语、俄语、波斯语和越南语基准测试。这种跨语言的优异表现就像是一个多语言天才在各种语言考试中都名列前茅,充分证明了模型的真正多语言能力。

  更难得的是,这个模型家族的每个成员都在各自的规模级别中表现出色。即使是相对较小的 3.3 亿和 6 亿参数模型,也在大多数语言特定基准测试中超越了 Qwen3-Embedding 和 EmbeddingGemma 等竞争对手。这种现象就像是在同重量级的拳击比赛中,F2LLM-v2 的选手不仅赢了,而且赢得很漂亮。

  特别值得关注的是模型在代码理解任务上的表现。F2LLM-v2 在代码基准测试中展现出强大的实力,这得益于训练数据中包含的 40 多种编程语言。无论是 Python、Java 这样的主流语言,还是 Rust、Haskell 这样的小众语言,模型都能很好地理解和处理。

  研究团队还进行了详细的消融实验来验证各项技术的有效性。知识蒸馏实验显示,所有规模的模型都从这项技术中获得了显著提升。以 6 亿参数模型为例,使用知识蒸馏后性能提升了 0.85 分,而最小的 8000 万参数模型提升幅度更是达到了 4.67 分。这证明了"师父领进门"这个古老智慧在 AI 训练中同样适用。

  Matryoshka 表示学习的实验结果更是令人惊喜。随着嵌入维度的增加,所有模型的性能都呈现出平滑的上升曲线,在低维度时提升最为显著,到达接近完整维度时趋于平缓。这种特性为实际应用提供了极大的灵活性,用户可以根据自己对速度和精度的需求动态调整嵌入维度。

  在具体的语言表现上,F2LLM-v2 展现出了真正的包容性。以往很多模型在英语和中文上表现出色,但在其他语言上却力不从心。而 F2LLM-v2 在阿拉伯语、德语、法语、日语、韩语等各种不同语系的语言上都取得了优异成绩。这种均衡的多语言能力正是研究团队追求的目标。

  更令人印象深刻的是,模型在医学领域基准测试中也表现优异,F2LLM-v2-14B 在医学基准测试中排名第二。考虑到医学文本的专业性和复杂性,这个成绩证明了模型不仅具备通用语言理解能力,还能胜任专业领域的任务。

  这些全面而优异的性能表现,不仅仅是数字上的成功,更代表了一种技术哲学的胜利:通过真正的多语言训练和精心的技术设计,可以创造出既高效又强大的 AI 系统,让全世界不同语言的用户都能享受到顶级的 AI 服务。这种成功为整个 AI 行业指明了一个更加包容和公平的发展方向。

  五、开源精神:让全世界共享 AI 技术成果

  在当今 AI 领域,许多顶级模型都被包装在商业秘密的外衣下,只提供 API 调用服务而不公开核心技术。这种做法就像是拥有一台神奇的机器,但只允许别人付费使用,却不告诉任何人这台机器是如何工作的。F2LLM-v2 项目选择了截然不同的道路:完全开源。

  研究团队不仅公开了所有 8 个模型的完整权重和代码,还提供了详细的训练数据来源、训练方法、中间检查点,甚至包括训练过程中的各种技术细节和经验教训。这种做法就像是一位经验丰富的厨师不仅愿意免费提供美味的食物,还主动分享完整的食谱、制作过程,甚至包括失败的尝试和改进的心得。

  这种开源精神的意义远远超出了单纯的技术分享。对于全球的研究人员来说,F2LLM-v2 提供了一个宝贵的起点。他们可以基于这个模型进行进一步的研究,针对特定语言或领域进行优化,或者探索新的训练方法。这就像是在科学研究中提供了一个公共的实验平台,让全世界的科学家都能在此基础上推进人类知识的边界。

  对于发展中国家和资源有限的研究机构来说,这种开源模式具有特别重要的意义。训练一个 140 亿参数的多语言模型需要巨大的计算资源和专业知识,这对很多机构来说是不现实的。但有了 F2LLM-v2,他们可以直接使用这个高质量的基础模型,然后根据自己的需求进行调整和优化。

  研究团队特别重视数据的透明性。他们详细记录了所使用的 157 个数据源,包括每个数据源的具体内容、语言分布、任务类型等信息。这种透明度让其他研究人员能够理解模型的能力边界,也为构建更好的训练数据集提供了参考。

  在模型架构方面,研究团队也毫无保留地分享了所有技术细节。从 Transformer 层的具体配置,到注意力头的数量,从学习率的设置,到训练轮次的选择,每一个影响模型性能的参数都被详细记录和解释。这种程度的技术公开在商业化程度很高的 AI 领域实属难得。

  知识蒸馏和模型剪枝的具体实现方法也被完整公开。研究团队不仅说明了他们是如何做的,还解释了为什么这样做,以及在实施过程中遇到的问题和解决方案。这种经验分享对于想要复现或改进这些技术的研究人员来说价值巨大。

  更值得称赞的是,研究团队还提供了详细的评估代码和基准测试结果。这让其他研究人员可以使用完全相同的评估标准来比较不同模型的性能,确保了比较的公平性和科学性。这种做法促进了整个领域的标准化和规范化发展。

  开源的另一个重要意义是促进了技术的民主化。以前,只有少数大公司和顶级研究机构才能开发和使用先进的多语言嵌入模型。现在,任何有基本技术能力的个人或组织都可以使用 F2LLM-v2,无论是为了学术研究、商业应用还是社会公益项目。

  这种开源精神也体现了对 AI 发展方向的深层思考。研究团队认为,AI 技术应该服务于全人类,而不是少数拥有资源的群体。通过开源,他们希望能够打破技术壁垒,让全世界的开发者和研究人员都能参与到 AI 技术的发展和应用中来。

  从长远来看,F2LLM-v2 的开源策略可能会产生深远的影响。它可能会激励更多的研究团队采用类似的开放态度,推动整个 AI 领域向更加透明、协作、包容的方向发展。这种转变不仅有利于技术进步,也有助于确保 AI 技术的发展真正造福全人类。

  结论

  说到底,F2LLM-v2 不只是又一个技术突破,它更像是 AI 领域的一场"语言革命"。在这个英语主导的 AI 世界里,蚂蚁集团和上海交通大学的研究团队做了一件看似简单但意义深远的事:让 AI 真正学会了"说"全世界的语言。

  这个能够理解 282 种语言的 AI 系统,就像是培养了一位真正的"世界公民"。无论你来自德国的小村庄,还是越南的繁华都市,无论你说的是阿拉伯语还是波斯语,这个 AI 助手都能像理解英语一样准确地理解你的需求。这种技术上的包容性,实际上反映了一种更深层的价值观:技术应该服务于所有人,而不只是特权阶层。

  更难得的是,研究团队选择了完全开放的路径。在这个充满商业竞争和技术封锁的时代,他们把所有的研究成果、训练数据、技术细节都无偿分享给全世界。这就像是把一把打开 AI 宝库的钥匙交给了每一个有需要的人,让技术的进步不再是少数大公司的专利。

  从 8000 万参数的"小巧型"到 140 亿参数的"豪华版",F2LLM-v2 提供了一个完整的解决方案家族。这种设计哲学很务实:不是每个人都需要最强大的工具,但每个人都应该有合适的工具可以选择。无论你是个人开发者还是大企业,无论你的计算资源是有限还是充足,都能找到适合自己的版本。

  这项研究的成功也证明了一个重要观点:做正确的事情往往也能带来最好的结果。通过关注全球语言的平衡性,通过坚持开源的理念,通过追求真正的技术包容性,F2LLM-v2 不仅在 11 个国际基准测试中夺冠,更重要的是为 AI 领域树立了一个新的标杆。

  归根结底,技术的价值不在于它有多么复杂或先进,而在于它能为多少人解决实际问题。F2LLM-v2 的出现,意味着世界各地使用不同语言的人们,都能更平等地享受 AI 技术带来的便利。这或许才是人工智能发展的真正意义:不是为了展示人类的智慧有多高超,而是为了让这种智慧真正惠及每一个人。

  未来,当 AI 技术变得更加普及的时候,我们或许会回过头来看 F2LLM-v2,把它视为 AI 走向真正全球化和民主化的重要里程碑。这个看似技术性的突破,实际上承载着一个更加包容和公平的数字世界的希望。

  Q&A

  Q1:F2LLM-v2 能理解多少种语言?

  A:F2LLM-v2 可以理解和处理 282 种自然语言和 40 多种编程语言。这包括了从英语、中文、俄语这样的主流语言,到越南语、波斯语、阿拉伯语等相对小众的语言,以及 Python、Java、JavaScript 等各种编程语言,真正实现了全球化的语言覆盖。

  Q2:F2LLM-v2 的 8 个不同规模模型有什么区别?

  A:这 8 个模型的参数规模从 8000 万到 140 亿不等,就像从经济型轿车到豪华 SUV 的完整产品线。较小的模型更轻便高效,适合资源有限的应用场景;较大的模型性能更强,适合对精度要求极高的企业应用。所有模型都支持 Matryoshka 技术,可以根据需要调整嵌入维度来平衡性能和效率。

  Q3:普通开发者能免费使用 F2LLM-v2 吗?

  A:是的,完全可以。研究团队采用了完全开源的策略,不仅免费提供所有 8 个模型的完整权重和代码,还公开了训练数据来源、训练方法和技术细节。任何有基本技术能力的个人或组织都可以免费下载使用,无论是用于学术研究、商业应用还是个人项目。