您现在的位置是:首页 >学无止境 >ctr特征重要性建模:FiBiNet&FiBiNet++模型网站首页学无止境

ctr特征重要性建模:FiBiNet&FiBiNet++模型

我就算饿死也不做程序员 2023-06-14 04:00:02
简介ctr特征重要性建模:FiBiNet&FiBiNet++模型

FiBiNET(Feature Importance and Bilinear feature Interaction NETwork)为推荐系统的CTR模型提出了一些创新方向:

  • 引入一个SENet模块,可以动态学习特征的重要性;
  • 引入一个双线性模块(Bilinear-Interaction layer),来改进特征交互方式。

可以看出,FiBiNET模型主要的工作都是在特征建模方向,但论文没有说明为什么特征建模在ctr模型中如此重要?下面我们引用论文作者的一张图:

ctr任务中大部分特征是ID类特征,并且数据是十分稀疏的。ctr模型中的参数绝大部分都为特征Embedding,可见其重要程度,而特征重要性建模则是更好地利用这些特征的方向之一。(PS:另外一个方向是频次相关的变长embedding)

image-20230129212221536

1. FiBiNet

论文:FiBiNET: Combining Feature Importance and Bilinear feature Interaction for Click-Through Rate Prediction

地址:https://arxiv.org/abs/1905.09433

从下图的网络结构,可以看出FiBiNet模型其实不复杂,主要在深度ctr模型baseline中引入了SENet和Bilinear-Interaction:

  1. 不同的特征转换为Embeddings E
  2. Embeddings输入到SENet Layer,得到SENet-Like Embeddings V
  3. Embeddings EV分别经过双线性特征交互层,得到p和q;
  4. p和q进行拼接,输入到DNN全连接层,最后使用sigmoid函数得到预测概率。

1.1 Embedding Layer

为了方便表述,在这里稍微讲下field和feature的区别:field是一类特征,而feature则是具体的特征值。比如性别、学历等等都是field,而feature则表示性别为男、学历为本科。

那么,这些ID类输入经过Embedding Layer,并且进行拼接,输出则为: E = [ e 1 , e 2 , . . . , e i , . . . , e f ] , e i ∈ R k E=[e_1,e_2,...,e_i,...,e_f],e_iin R^k E=[e1,e2,...,ei,...,ef],eiRk表示第i个field的embedding,f为fileds的数量,k则为embedding的维度。

1.2 SENet

众所周知,不同的特征在特定的任务中,重要性是不一样的。SENet可以帮助我们对特征重要性进行建模,在ctr任务中,通过SENet可以动态地增加重要特征的权重,和降低无关特征的权重

SENet接收embedding layer的输出,产出权重向量 A = { a 1 , . . . , a i , . . . , a f } , a i A={a_1,...,a_i,...,a_f},a_i A={a1,...,ai,...,af}ai为标量,代表第i个field embedding的权重。然后把原来的embedding E重新缩放为一个新的embedding(SENet-Like embedding) V = [ v 1 , . . . , v i , . . . , v f ] V=[v_1,...,v_i,...,v_f] V=[v1,...,vi,...,vf]

如上图所示,SENet包括三个步骤:squeeze、excitation、re-weight。

Squeeze. 这一个步骤是为了计算每个field embedding的统计信息。使用mean或者max的pooling方法来挤压原来的Embedding E,变成一个统计向量 Z = [ z 1 , . . . , z i , . . . , z f ] , z i Z=[z_1,...,z_i,...,z_f],z_i Z=[z1,...,zi,...,zf]zi是一个标量,表征第i个feature的全局信息。

如下式则为mean pooling,论文实验了mean pooling比max pooling的效果更佳:

image-20230130211521442

**Excitation. ** 这一个步骤是为了在统计向量Z的基础上,学习到每个field embedding的权重。具体方法也很简单,就是使用带激活函数的两个全连接层:

image-20230130212141213

其中, A ∈ R f 是一个向量, σ 1 和 σ 2 Ain R^f是一个向量,sigma_1和sigma_2 ARf是一个向量,σ1σ2都为激活函数, W 1 ∈ R f × f r 和 W 2 ∈ R f r × f W_1in R^{f imes frac{f}{r}}和W_2in R^{frac{f}{r} imes f} W1Rf×rfW2Rrf×f为训练参数,r为缩减比例,是一个超参数。

**Re-Weight. ** 这一个步骤是把权重向量A对原来的Embedding E进行缩放,得到SENet-Like embedding Vimage-20230130213013511

1.3 Bilinear-Interaction

交互网络层的目的是为了计算二阶特征交互,如FM和FFM这些线层模型的特征交互是使用了inner product,如AFM和NFM这些深度模型则是使用Hadamard product。

但是,这两种方法都过于简单,在稀疏数据中难以进行有效的建模。因此,论文结合这两种方法,提出了另外一种交互方式:Bilinear- Interaction。

image-20230131203708773

如上图所示,三种交互方式的区别也比较明显了。Inner Product就是内积,而Hadamard Product: [ a 1 , a 2 , a 3 ] ⊙ [ b 1 , b 2 , b 3 ] = [ a 1 b 1 , a 2 b 2 , a 3 b 3 ] [a_1,a_2,a_3]odot [b_1,b_2,b_3]=[a_1b_1,a2_b2,a3_b3] [a1,a2,a3][b1,b2,b3]=[a1b1,a2b2,a3b3]。而双线性特征交互包括以下三种:

  • **Field-All Type: ** p i j = v i ⋅ W ⊙ v j p_{ij}=v_icdot Wodot v_j pij=viWvj。所有field共享一个隐矩阵 W ∈ R k × k Win R^{k imes k} WRk×k,参数量为k·k;
  • **Field-Each Type: ** p i j = v i ⋅ W i ⊙ v j p_{ij}=v_icdot W_iodot v_j pij=viWivj。每一个filed都有自己的隐矩阵 W i ∈ R k × k W_iin R^{k imes k} WiRk×k,参数量为f·k·k;
  • Field-Interaction Type: p i j = v i ⋅ W i j ⊙ v j p_{ij}=v_icdot W_{ij}odot v_j pij=viWijvj。不同的field之间的交互都有一个隐矩阵 W i j ∈ R k × k W_{ij}in R^{k imes k} WijRk×k,参数量为 f ( f − 1 ) 2 × k × k frac{f(f-1)}{2} imes k imes k 2f(f1)×k×k

其中, v i , v j v_i,v_j vi,vj分别是第i和j个field的embedding。三种双线性特征交互的区别就是在于交互的粒度不同。(这里的“隐矩阵”可能名称不准确,是为了能够与FM中的隐向量类比理解)

下图为不同双线性特征交互方式的效果对比,结论说明没有哪一种双线性特征交互是最好的,不同的数据集适合的交互方式可能不同

image-20230131210120916

如上图-[FiBiNet结构]所示,FiBiNet会分别把原来的embedding E和经过SENet之后的SENet-Like embedding V都送入双线性特征交互层,得到 p = [ p 1 , . . . , p i , . . . , p n ]   a n d   q = [ q 1 , . . . , q i , . . . , q n ] , w h e r e p i , q i ∈ R k p=[p_1,...,p_i,...,p_n] and q=[q_1,...,q_i,...,q_n],where p_i,q_iin R^k p=[p1,...,pi,...,pn] and q=[q1,...,qi,...,qn]wherepi,qiRk,然后将p和q进行拼接,给到DNN连接层中,最后使用sigmoid函数得到预测的点击概率。这与其他的ctr模型并无不同。

我们可以发现,FiBiNet移除SENet模块,其实就会退化为FNN模型;而移除DNN部分,它就可以退化为FM模型。

2. FiBiNet++

论文:FiBiNet++:Improving FiBiNet by Greatly Reducing Model Size for CTR Prediction

地址:https://arxiv.org/pdf/2209.05016.pdf

FiBiNet存在的问题是双线性特征交互层会导致第一层DNN连接层产生巨大参数量,由此提出了FIBiNet的改进版FiBiNet++,模型参数(非embedding参数)降低了12-16倍,并且效果还得到了提升。FiBiNet在bi-linear双线性特征交互层和SENet层都进行改进了。

FiBiNet++结构如下图[FiBiNet++结构]:

  1. 不同的特征(包括类别特征和数值特征)转换为Embeddings;
  2. Embeddings经过Bi-Linear+层,得到输出 H C M L H^{CML} HCML
  3. Embeddings经过SENet+层,得到输出 V S E N e t + V^{SENet+} VSENet+;
  4. H C M L H^{CML} HCML V S E N e t + V^{SENet+} VSENet+拼接,输入到多层的MLP,最后使用sigmoid函数得到预测概率。

FiBiNet结构

2.1 Bi-Linear+

上述已经介绍过,FiBiNet对特征 x i , x j x_i,x_j xi,xj交互的建模是通过引入可学习参数矩阵W的双线性函数,如下式:image-20230201205514617

∘ , ⊗ circ,otimes 分别代表内积和哈达玛积( element-wise hadamard product)。W有三种参数形式:field all type、field each type、field interaction type。

哈达玛积会产生大量的非必要参数,因此,FiBiNet++对双线性函数(bi-linear function)进行优化,提出bi-linear+,大大的减少双线性特征交互层的输出size。对于f个field,有下式:

image-20230201210231556

image-20230201210238927

接着,再引入一个MLP层来叠加向量P,如下式:

image-20230201210921786

其中, W 1 ∈ R m × f × ( f − 1 ) 2 , σ ( ⋅ ) W_1in mathbb{R}^{m imes frac{f imes(f-1)}{2}},sigma(cdot) W1Rm×2f×(f1)σ()是一个恒等映射函数,并且是不带非线性激活函数的,论文实验了加上非线性转换反而效果下降了。

2.2 SENet+

在FIBiNet模型中,SENet包括三个步骤:squeeze、excitation、re-weight。为了进一步增强模型表现,论文FiBiNet提出了SENet+,模块,SENet+包括了四个步骤:squeeze、excitation、re-weight、fuse,虽然前三个步骤相同,但每一步其实都经过了改进。

Squeeze. 考虑到更多的输入信息有利于提升模型的效果。因此,不同于SENet对每个feature使用mean pooling得到1-bit的统计信息,SENet+会将每个feature分割为多个组来得到多个1-bit的统计信息。

具体的,首先将每个经过标准化后的feature embedding v i ∈ R 1 × d v_iin mathbb{R}^{1 imes d} viR1×d分割为g个组(g是一个超参数),如该式: v i = c o n c a t [ v i , 1 , v i , 2 , . . . , v i , g ] , w h e r e   v i , j ∈ R 1 × d g v_i=concat[v_{i,1},v_{i,2},...,v_{i,g}],where v_{i,j}in mathbb{R}^{1 imes frac{d}{g}} vi=concat[vi,1,vi,2,...,vi,g]where vi,jR1×gd,代表着第i个特征中第j个组的信息。然后在 v i , j v_{i,j} vi,j上使用max pooling和mean pooling来表征该组的信息,得到如下结果:

image-20230201213250720

image-20230201213259850

image-20230201213307864

Excitation. 在SENet中,这一步得到的权重向量Z是field级别的,SENet+进一步细化,让权重向量改进为bit级别的,具体如下式:image-20230201214000801

其中, W 2 ∈ R 2 g f r × 2 g f , W 3 ∈ R f d × 2 g f r , σ 2 ( ⋅ ) = R e l u ( ⋅ ) , σ 3 ( ⋅ ) W_2in mathbb{R}^{frac{2gf}{r} imes 2gf},W_3in mathbb{R}^{fd imes frac{2gf}{r}},sigma_2(cdot)=Relu(cdot),sigma_3(cdot) W2Rr2gf×2gfW3Rfd×r2gfσ2()=Relu()σ3()是一个恒等映射函数,r仍然是一个代表缩减比率的超参数。

Re-Weight. 这里就很好理解了,因为上一步Excitation得到的权重向量Z是bit级别的,那么feature embedding也对应每个bit进行缩放:

image-20230201214627058

这里的N(V)为经过normalization之后的embeddings,后续会进一步详细介绍。

Fuse. SENet++增加的这一步骤思想有点像残差网络了,让上一步得到的feature embedding和原来的feature embedding进行bit-wise的相加,再采用layer normalization得到更好的特征表征:

image-20230201215048901

image-20230201215053900

image-20230201215059035

接下来的步骤,与FiBiNet大致相同了,将SENet+和Bi-Linear+的输出进行拼接即 H 0 = c o n c a t [ H C M L , V S E N e t + ] H_0=concat[H^{CML},V^{SENet+}] H0=concat[HCML,VSENet+],然后输入到多层MLP中,最后使用sigmoid函数得到预测概率。

2.3 特征处理

在这里,再介绍下论文使用的特征预处理方法。对于类别特征,使用常规处理,进行one-hot编码,映射到低维的向量。而对于数值类特征,论文会给每个field分配一个embedding,然后让归一化之后的特征值与embedding相乘,具体如下:

image-20230201220155796

image-20230201220204417

并且,类别特征和数值特征的标准化方法也不同:类别特征使用的是batch normalization,而数值特征使用的是layer normalization:

image-20230201220350390

image-20230201220404986

S c 、 S n S_c、S_n ScSn分别代表类别特征和数值特征的集合。

3. 总结

FiBiNet在特征重要性方向发力,提出了两个独立可插拔的模块,分别为动态学习特征重要性的SENet和增强二阶特征交互的Bi-Linear。

FiBiNet++提出了Bi-Linear,大大减少了模型的参数量;还有SENet+,对SENet的每个步骤都进行改进。

个人觉得FiBiNet系列模型的最大贡献是提出的这两个模块的实用性很高,可以很灵活插入到自己的模型中。比如SENet双塔召回,天猫电商领域推荐中的粗排模型也在item tower加入了这两个模块。

SENet双塔召回

4. 代码实现

虽然论文提供了源码,不过其需要所有field embeddings的size相同。但在实际应用场景下,不同特征的embeddings size往往是会设置不同的,这里提供了支持不同field embeddings的size不等的实现:github

风语者!平时喜欢研究各种技术,目前在从事后端开发工作,热爱生活、热爱工作。