Facebook的多任务多模态向量召回模型Que2Search

1. 概述

对于一个搜索系统来说,通常采用的召回都是基于倒排索引的召回,简单来说就是需要对item侧建立倒排索引,在检索的过程中,对query分词,根据分词结果去倒排索引中查找词匹配的item,简单的流程如下图所示:

在这里插入图片描述

在传统的检索过程中,通常存在语义上的问题,比如Query为“连衣裙”,此时根据词匹配就检索不到核心词为“长裙”的item,为了解决这样的问题,需要对Query进行扩展,将其扩展成相似的query,以此来实现语义匹配的问题。当然,词匹配的方式的一大优势就是相关性解决的比较好。为了能从算法上解决语义的gap,双塔的召回结构是现如今较多采用的一种方法。

双塔的召回有如下的一些优势:

  • item侧可离线计算,线上可采用基于ANN的向量匹配方式较快的查找到向量空间与Query相匹配的item
  • 基于模型的方法,可以融入更多的特征

双塔模型的第二点优势就可以方便的对模型的特征进行扩充,尤其现如今对多模态的研究,Que2Search[1]中就是提出使用多模态的方法来训练双塔模型,同时,在Que2Search的item塔中引入了分类的任务,与上面的双塔任务共同构成了多任务的训练方式。

2. Que2Search模型

2.1. Que2Search的模型结构

Que2Search的模型结构如下图所示:

在这里插入图片描述

左侧是一个Query侧的塔,右侧是item侧的塔。

2.2. Query塔

Query塔侧的模型的输入特征有三部分,分别为:

  • Query文本的tri-gram。通过size=3的滑动窗口,得到tri-gram,过hash函数(如MurmurHash)后得到对应的ids,再经过Embedding后得到每个id的向量表示,最终对所有向量做sum-pooling;

  • 用户所在国家。该特征是单分类的特征,也是经过Embedding后表示成向量;

  • Query原始文本。经过一个两层的XLM模型编码,取[CLS]对应的向量作为query的语义表示;

注:XLM模型就是一个基于Transformer的语言模型,类似于BERT。

至此,我们得到了3个向量,如何将这3个向量fuse成一个向量,文中也提出了两种方式,分别为concat和attention。实验结果显示attention的结果要优于concat,假设φ={φi}i=1N\varphi=\left\{\varphi _i \right\}_{i=1}^N表示NN个不同来源的向量,将这NN个向量concat在一起,得到Φ\Phi

Φ=φ1φN\Phi =\varphi _1\parallel \cdots \parallel \varphi _N

计算attention的权重aa

a=Softmax(ΦW)a=Softmax\left (\Phi W \right )

其中,WRND×NW\in \mathbb{R}^{ND\times N},最后得到最终的合并向量表示:f=i=1Naiφif=\sum_{i=1}^{N}a_i\varphi _i

这里的Φ\Phi是通过concat多个向量,也有其他的一些方法,如Attention-Based BiLSTM[2]中的计算方法。

2.3. Item塔

Item塔侧的模型的输入特征有五部分,分别为:

  • 商品标题。使用6层XLM-R编码;

  • 商品描述。与商品标题一样,使用6层XLM-R编码;

  • 商品标题的tri-gram。处理方法同query侧的tri-gram;

  • 商品描述的tri-gram。处理方法同query侧的tri-gram;

  • 图像表示:对于每一个商品,都会附带一些图片,通过预训练模型得到图像表示,然后过MLP和Deep set方法对多个图像表示进行融合得到一个向量表示。

多个不同来源的向量通过与上述Query塔一样的Attention的方法得倒最终的向量表示。为了能对item塔的模型更好的学习,因此在这里设置了多标签多类目的分类任务,如上图中的右侧。

2.4. 样本选择

对于双塔模型来说,一般选择点击的样本作为正样本,但是在Que2Search中,选择的正样本需满足以下四个条件:

  • 用户发起一次搜索
  • 点击一个商品
  • 给卖家留言
  • 卖家回复

只有同时满足这四个条件的query和item才能成为正样本。

负样本的选择是双塔召回模型的精髓。对于负样本通常有两种策略:

  • 根据频次从全库中随机采样
  • batch内的随机采样

这是随机样本的部分,通常还会增加一些困难样本,主要有人工的挖掘以及在线的困难样本挖掘。在Que2Search中随机样本是采用的Batch内的负样本,假设batch的大小为BB,经过query塔后,query侧的向量为{qi}i=1B\left\{q_i \right\}_{i=1}^B,同理,item侧的向量为{dj}j=1B\left\{d_j \right\}_{j=1}^B,且向量的维度为DD。计算每一个query与item的cosine相似度矩阵,便得到{cos(qi,dj)}i,j=1B\left\{cos\left ( q_i,d_j \right ) \right\}_{i,j=1}^B,这里只有i=ji=j时是正样本,其他的为负样本,如下图所示:

在这里插入图片描述

对于最后的B×BB\times B矩阵,只有对角线上的为正样本,选择一行来看,这是一个多分类的问题,类别数为BB。对于该多分类,损失函数为:

lossi=logexp(scos(qi,di))j=1Bexp(scos(qi,dj))loss_i=-log\frac{exp\left ( s\cdot cos\left ( q_i,d_i \right ) \right )}{\sum _{j=1}^Bexp\left ( s\cdot cos\left ( q_i,d_j \right ) \right )}

其中,ss为缩放系数,在文章中指出ss在15和20之间。

缩放系数ss实际上就是温度系数。

在文章中还提出了另一种对称的损失函数,上述的损失函数以query为主导,另外一部分以item为主导,基于此便有了对称的损失函数:

12(logexp(scos(qi,di))jexp(scos(qi,dj))+logexp(scos(qi,di))jexp(scos(qj,di)))-\frac{1}{2}\left ( log\frac{exp\left ( s\cdot cos\left ( q_i,d_i \right ) \right )}{\sum _{j}exp\left ( s\cdot cos\left ( q_i,d_j \right ) \right )}+log\frac{exp\left ( s\cdot cos\left ( q_i,d_i \right ) \right )}{\sum _{j}exp\left ( s\cdot cos\left ( q_j,d_i \right ) \right )} \right )

不过实验表明在实际的线上并没有多大的收益。

除了上述的随机样本,还需要困难样本,在Que2Search中使用的是在线困难负样本挖掘,其方法是选择Batch内除了正样本以外所有负样本中相似度最高的样本作为困难负样本:

nqi=argmaxjiBcos(qi,dj)n^{q_i}=argmax_{j\neq i}^Bcos\left ( q_i,d_j \right )

这样就构造了正负样本的集合(qi,di,dnqi)\left ( q_i,d_i,d_{n^{q_i}} \right )

但是在Que2Search中,使用了两个阶段的训练:

  • 第一阶段只使用随机负样本,通过多分类的交叉熵损失函数;
  • 第二阶段只使用困难负样本,损失函数却是margin rank loss效果更好。

margin rank loss为:

lossi=max(0,[cos(qi,di)cos(qi,dnqi)]+margin)loss_i=max\left ( 0,-\left [ cos\left ( q_i,d_i \right )-cos\left ( q_i,d_{n^{q_i}} \right ) \right ]+margin \right )

margin的值在0.1和0.2之间最好。

3. 总结

在Que2Search中,主要是加入了更多的文本特征,并利用基于Transformer的方法提取文本语义信息,同时在特征中融入了图像的特征,实现了多模态的模型学习。另一方面,在训练的过程中提出了多任务的学习,有利于对item塔的模型学习。

参考文献

[1] Liu Y, Rangadurai K, He Y, et al. Que2Search: fast and accurate query and document understanding for search at Facebook[C]//Proceedings of the 27th ACM SIGKDD Conference on Knowledge Discovery & Data Mining. 2021: 3376-3384.

[2] Attention-Based BiLSTM