<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>MOON on bitJoy</title><link>https://bitjoy.net/tags/moon/</link><description>Recent content in MOON on bitJoy</description><generator>Hugo -- 0.148.2</generator><language>en</language><lastBuildDate>Thu, 23 Apr 2026 23:59:28 +0800</lastBuildDate><atom:link href="https://bitjoy.net/tags/moon/index.xml" rel="self" type="application/rss+xml"/><item><title>论文阅读：MOON: Generative MLLM-based Multimodal Representation Learning for E-commerce Product Understanding</title><link>https://bitjoy.net/posts/2026-04-23-alibaba-moon-emb-wsdm2026-paper-reading/</link><pubDate>Thu, 23 Apr 2026 23:59:28 +0800</pubDate><guid>https://bitjoy.net/posts/2026-04-23-alibaba-moon-emb-wsdm2026-paper-reading/</guid><description>&lt;p>&lt;img loading="lazy" src="https://bitjoy.net/posts/2026-04-23-alibaba-moon-emb-wsdm2026-paper-reading/alibaba-moon-emb-wsdm2026-cover.png">&lt;/p>
&lt;p>这篇文章和MOON技术报告有大量重复，建议先阅读&lt;a href="https://bitjoy.net/posts/2026-04-18-taobao-moon-emb-technical-report-paper-reading/">MOON技术报告读书笔记&lt;/a>。&lt;/p>
&lt;h1 id="基本信息">基本信息&lt;/h1>
&lt;ul>
&lt;li>论文标题：MOON: Generative MLLM-based Multimodal Representation Learning for E-commerce Product Understanding&lt;/li>
&lt;li>作者单位：阿里&lt;/li>
&lt;li>论文链接：&lt;a href="https://arxiv.org/abs/2508.11999">https://arxiv.org/abs/2508.11999&lt;/a>&lt;/li>
&lt;li>来源：WSDM 2026&lt;/li>
&lt;/ul>
&lt;h1 id="motivation论文要解决的问题是什么">Motivation：论文要解决的问题是什么&lt;/h1>
&lt;p>多模态信息在电商应用的挑战如下：&lt;/p>
&lt;ul>
&lt;li>传统CLIP方法只能学习图片和文本的1对1关系，但是电商场景经常是一个商品标题对应多张商品图片，故传统CLIP已经不太能胜任这种场景，而MLLM可以&lt;/li>
&lt;li>电商图片有很多噪声，比如背景、无关商品、促销信息等，需要去噪之后再进行表征学习&lt;/li>
&lt;li>领域缺乏电商场景下通用多模态表征的benchmark数据集&lt;/li>
&lt;/ul>
&lt;h1 id="对比学习预训练">对比学习预训练&lt;/h1>
&lt;p>如图Fig 4所示，整体模型结构和MOON技术报告中的基本一样：&lt;/p>
&lt;ul>
&lt;li>样本构造：使用q2i下单信号构造正样本pair，使用同类目的其他商品作为难负例，使用时空负例采样扩大负例样本数量&lt;/li>
&lt;li>训练任务：对比学习，InfoNCE loss&lt;/li>
&lt;li>输入特征：包括标题、图片、类目、属性等特征&lt;/li>
&lt;li>图片去噪：图片会先使用Qwen2.5-VL进行主体识别，主体识别时同时输入图片和商品标题，让模型提取出符合标题的图片主体。然后会把去噪前后的图片都输入到MLLM中进行表征学习&lt;/li>
&lt;li>表征提取：使用MLLM最后一层所有token的hidden states进行mean pooling后得到&lt;/li>
&lt;/ul>
&lt;p>&lt;img loading="lazy" src="https://bitjoy.net/posts/2026-04-23-alibaba-moon-emb-wsdm2026-paper-reading/alibaba-moon-emb-wsdm2026-fig4.png">&lt;/p>
&lt;p>本文相比MOON技术报告的创新点在Fig 5，即作者把MLLM中的FFN改造成了MoE结构，作者认为输入给MLLM的特征太多，不同特征反应了商品在不同方面的特点，比如图片、标题、类目、属性等，因此这个MoE让模型能动态自适应关注商品的不同特征。&lt;/p>
&lt;p>&lt;img loading="lazy" src="https://bitjoy.net/posts/2026-04-23-alibaba-moon-emb-wsdm2026-paper-reading/alibaba-moon-emb-wsdm2026-fig5.png">&lt;/p>
&lt;h1 id="结果">结果&lt;/h1>
&lt;p>因为本文的目标是训练通用多模态表征，为了验证通用表征的效果，作者在2个数据集的3个任务上进行了系统性评测，结果如图Fig 1所示，本文的方法比传统方法以及其他MLLM方法都要好。通过消融实验发现，主要提升来自3个创新点：1）图片主体识别；2）MoE；3）扩充负例。&lt;/p>
&lt;p>&lt;img loading="lazy" src="https://bitjoy.net/posts/2026-04-23-alibaba-moon-emb-wsdm2026-paper-reading/alibaba-moon-emb-wsdm2026-fig1.png">&lt;/p>
&lt;h1 id="评论">评论&lt;/h1>
&lt;ul>
&lt;li>可借鉴
&lt;ul>
&lt;li>使用MoE让emb关注商品不同特征，这个思路挺好的&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>可改进
&lt;ul>
&lt;li>论文整体创新性不够，MLLM生产商品多模态表征的思路很多年前都有了，快手的QARM，小红书的NoteLLM很早就发表了，但本文完全没有引用&lt;/li>
&lt;li>电商图片使用主体识别进行去噪的思想之前沃尔玛也发表了，本文没有任何引用：&lt;a href="https://bitjoy.net/posts/2025-10-08-vl-clip-paper-reading/">https://bitjoy.net/posts/2025-10-08-vl-clip-paper-reading/&lt;/a>。而且图像去噪需要使用另一个MLLM大模型，会增加模型推理和部署的成本，有办法把这一步合并到主模型中吗？&lt;/li>
&lt;li>本文第三个创新点提出了通用多模态表征评测benchmark，但并没有提供数据和代码链接&lt;/li>
&lt;li>对比学习样本只有下单的Q2I信号，没有点击、加购信号，也没有I2I信号。难负例是同类目其他商品，有假负例的风险很高。比如Q=“手机”，I=“华为手机”，那用“小米手机”作为难负例肯定是不合适的。&lt;/li>
&lt;li>MoE结构的Router输入的是商品的所有特征x，感觉不太合理，感觉可以只输入类目信息，因为不同类目的表征关注重点不同，比如服饰类目更多关注图片，而3C数码更多关注标题属性等&lt;/li>
&lt;li>离线对比实验的时候，并没有说明不同多模态模型输出的dimension是否一致，是否公平&lt;/li>
&lt;li>没有线上AB效果&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ul></description></item><item><title>论文阅读：MOON Embedding: Multimodal Representation Learning for E-commerce Search Advertising</title><link>https://bitjoy.net/posts/2026-04-18-taobao-moon-emb-technical-report-paper-reading/</link><pubDate>Sat, 18 Apr 2026 11:31:06 +0800</pubDate><guid>https://bitjoy.net/posts/2026-04-18-taobao-moon-emb-technical-report-paper-reading/</guid><description>&lt;p>&lt;img loading="lazy" src="https://bitjoy.net/posts/2026-04-18-taobao-moon-emb-technical-report-paper-reading/moon-emb-report-cover.png">&lt;/p>
&lt;h1 id="基本信息">基本信息&lt;/h1>
&lt;ul>
&lt;li>论文标题：MOON Embedding: Multimodal Representation Learning for E-commerce Search Advertising&lt;/li>
&lt;li>作者单位：阿里&lt;/li>
&lt;li>论文链接：&lt;a href="https://arxiv.org/abs/2511.11305">https://arxiv.org/abs/2511.11305&lt;/a>&lt;/li>
&lt;li>来源：arxiv&lt;/li>
&lt;/ul>
&lt;h1 id="motivation论文要解决的问题是什么">Motivation：论文要解决的问题是什么&lt;/h1>
&lt;p>多模态信息在电商搜推系统中有很重要的作用，本文介绍了阿里在应用多模态信息过程中积累的实战经验，洋洋洒洒31页，介绍内容很多，核心围绕着多模态应用的三步走策略：“Pretraining, Post-training, and Application”，介绍了预训练方法、下游应用方法、工程架构优化等内容。&lt;/p>
&lt;h1 id="总体流程">总体流程&lt;/h1>
&lt;p>总体流程如图Fig1所示，上面是算法流程，下面是工程架构。算法包括三个流程：MLLM预训练、多模态表征后训练、多模态表征下游应用。工程包括两个环节：表征生产、表征消费。&lt;/p>
&lt;p>&lt;img loading="lazy" src="https://bitjoy.net/posts/2026-04-18-taobao-moon-emb-technical-report-paper-reading/moon-emb-report-fig1.png">&lt;/p>
&lt;h1 id="mllm预训练pretraining">MLLM预训练（Pretraining）&lt;/h1>
&lt;p>阿里并不是基于开源MLLM微调生产多模态表征，而是他们内部预训练了一个MLLM，叫TBStars-VL，是一个4B的模型。和通用MLLM一样，TBStars-VL也在通用数据集上进行过NTP的预训练，除此之外，TBStars-VL还在淘宝内部的电商数据上进行过预训练，预训练的任务主要是面向电商场景的QA任务，比如Fig1左上角展示的针对商品图片的描述、商品属性抽取、标题生成、图片主体识别等。这一阶段的预训练主要是给TBStars-VL注入电商领域知识。这部分论文介绍篇幅很短，没有具体细节。&lt;/p>
&lt;h1 id="多模态表征后训练post-training">多模态表征后训练（Post-training）&lt;/h1>
&lt;p>由于TBStars-VL是基于NTP任务训练好的生成式模型，没法直接产出多模态表征，故还需要进行多模态表征后训练，其实就是对比学习微调。&lt;/p>
&lt;p>在这个环节，作者把TBStars-VL的生成式单向attention改成了双向attention，以输出层的mean pooling结果作为表征输出。训练任务是经典的对比学习+InfoNCE loss。&lt;/p>
&lt;p>&lt;img loading="lazy" src="https://bitjoy.net/posts/2026-04-18-taobao-moon-emb-technical-report-paper-reading/moon-emb-report-fig3.png">&lt;/p>
&lt;p>在正样本构造方面，本文使用了多种q2i数据，比如图搜图、文搜文、文搜商品（图文）等，协同信号使用了点击、加购、下单等信号。样本统计数据如Table 2所示。虽然本文挖掘了不同协同关系的q2i正样本，但没说这些数据具体怎么用的，是混在一起shuffle训的话，其实学了个四不像。不如每种q2i数据都单独训一套表征。&lt;/p>
&lt;p>这一阶段对比学习训练的负样本就是in-batch负例。&lt;/p>
&lt;p>&lt;img loading="lazy" src="https://bitjoy.net/posts/2026-04-18-taobao-moon-emb-technical-report-paper-reading/moon-emb-report-tab2.png">&lt;/p>
&lt;p>完成上述后训练之后，作者后续还进行了一轮精调，即只用下单的q2i正样本，且对所有下单q2i进行了如下清洗：&lt;/p>
&lt;ul>
&lt;li>相似度去重
&lt;ul>
&lt;li>对于同一个item关联的多个正样本query，使用之前的模型产出q和i的表征，只保留(q,i)相似度最低的pair。作者认为相似度高的pair可能是热门的简单样本，所以只保留相似度最低即难度最大且长尾的(q,i)样本，加强对这部分数据的学习&lt;/li>
&lt;li>对训练集中的所有(q,i) pair，把属于同一个spu的sku样本合并，增加样本的多样性，同时避免batch内出现同spu的不同sku互为假负例的情况&lt;/li>
&lt;li>最后统计训练集中的(q,i)对应的类目分布，将训练样本的类目分布和线上曝光商品的类目分布对齐，对商品占比高的类目降采样&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>NER去重
&lt;ul>
&lt;li>对query和sku的标题文本进行NER，认为实体数量少于2个的文本蕴含信息太少，把这部分样本删掉&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ul>
&lt;p>此外，这次精调还额外使用了负样本，包括2种负采样方法：&lt;/p>
&lt;ul>
&lt;li>难负例采样。对于正样本(q,i) pair，把和i属于同一个类目的其他商品i’作为i的难负例。这一点我感觉难负例太强了，会出现很多假负例，比如搜“手机”，购买了“小米手机”，但并不意味着“华为手机”就和搜索词“手机”是负例关系。&lt;/li>
&lt;li>时空负采样。听着很高级，但其实也是常规操作：时间负采样就是memory bank的思路，空间负采样就是把其他GPU上的emb gather到当前GPU作为负样本。&lt;/li>
&lt;/ul>
&lt;p>最后，这一阶段精调的loss也不再是InfoNCE loss了，而是circle loss，这个和InfoNCE loss有点类似，后续有空了研究清楚。&lt;/p>
&lt;h1 id="多模态表征应用application">多模态表征应用（Application）&lt;/h1>
&lt;p>多模态表征在排序模型中的应用结构如图Fig 5所示，相对比较简单，就是用多模态表征和行为流的多模态表征计算相似度，然后用相似度对行为流进行加权求和。&lt;/p>
&lt;p>&lt;img loading="lazy" src="https://bitjoy.net/posts/2026-04-18-taobao-moon-emb-technical-report-paper-reading/moon-emb-report-fig5.png">&lt;/p>
&lt;h1 id="工程架构优化">工程架构优化&lt;/h1>
&lt;p>多模态应用的全链路周期很长，作者在每个环节都进行了很多工程优化，如下图Fig7所示。个人读下来这些优化也比较常规，大部分优化方法我们都用过。由于这部分不是算法关注的重点，不展开介绍了。&lt;/p>
&lt;p>&lt;img loading="lazy" src="https://bitjoy.net/posts/2026-04-18-taobao-moon-emb-technical-report-paper-reading/moon-emb-report-fig7.png">&lt;/p>
&lt;h1 id="效果评估">效果评估&lt;/h1>
&lt;p>在效果评估上，作者发现基于图像表征的搜索召回率可以作为优化表征模型的一个代理指标，能和下游排序任务的指标对应上。但是个人认为这个结论不具有普适性，而且这两个指标还是不太一样，搜索召回率本质上是一个召回任务，而下游是排序任务，对emb的细粒度区分能力要求更高。&lt;/p>
&lt;h1 id="评价">评价&lt;/h1>
&lt;ul>
&lt;li>可借鉴
&lt;ul>
&lt;li>最后精调使用的样本，使用(q,i)下单样本，并且进行了复杂的数据清洗，得到的数据质量很高，可以参考这些方法进行数据清洗&lt;/li>
&lt;li>最后精调使用了circle loss，说是能提升正负例的区分能力，后续可参考&lt;/li>
&lt;/ul>
&lt;/li>
&lt;li>可改进
&lt;ul>
&lt;li>论文太长了，现在大厂都喜欢写很长的technical report，但是太长了可读性不太好，很多车轱辘话反复说，不够精简，而且重点不突出，创新性不突出&lt;/li>
&lt;li>对比实验严重不足，比如为什么需要用内部的TBStars-VL，电商数据pretraining的收益有多大，和直接微调开源MLLM的对比效果如何？&lt;/li>
&lt;li>Q2I的难负例是否会造成很多假负例？&lt;/li>
&lt;li>最后精调的时候，为什么要用circle loss，和使用InfoNCE loss对比效果如何&lt;/li>
&lt;li>使用MLLM最后一层的mean pooling，这种和加特殊token的方法哪个更好？&lt;/li>
&lt;li>使用图像搜索召回率作为排序指标的代理指标，合理吗？具有普适性吗？&lt;/li>
&lt;li>Table 3，recall@k指标，k越大recall@k越低，不合理吧，应该越高吧？&lt;/li>
&lt;/ul>
&lt;/li>
&lt;/ul></description></item></channel></rss>