基于协同过滤的会话推荐_多介质过滤器工作原理

(4) 2024-08-24 10:12

Hi,大家好,我是编程小6,很荣幸遇见你,我把这些年在开发过程中遇到的问题或想法写出来,今天说一说
基于协同过滤的会话推荐_多介质过滤器工作原理,希望能够帮助你!!!。

【推荐系统】:协同过滤和基于内容过滤概述


  • 🌸个人主页:JOJO数据科学
  • 📝个人介绍:统计学top3高校统计学硕士在读
  • 💌如果文章对你有帮助,欢迎✌关注、👍点赞、✌收藏、👍订阅专栏
  • ✨本文收录于【推荐系统入门到项目实战】本系列主要分享一些学习推荐系统领域的方法和代码实现。

1.引言

“我们正在离开信息时代,进入推荐时代。”

与许多机器学习技术一样,推荐系统根据用户的历史行为进行预测。推荐系统是一种信息过滤系统,具体来说,是根据用户的历史行为、社交关系、兴趣点。来预测用户对一组项目的偏好。

在过去的几十年里,随着 Youtube、亚马逊、Netflix 和许多其他此类网络服务的兴起,推荐系统在我们的生活中占据了越来越多的位置。从电子商务(向买家推荐他们可能感兴趣的商品)到在线广告(向用户推荐正确的内容,匹配他们的偏好),推荐系统如今在我们的日常生活中是不可避免的。一般来说,推荐系统是旨在向用户推荐相关项目的算法(项目是要观看的电影、要阅读的文本、要购买的产品或其他任何取决于行业的项目)。

推荐系统在某些行业中非常重要,因为它们在高效时可以产生巨额收入,也是从竞争对手中脱颖而出的一种方式。作为推荐系统重要性的证明,我们可以提一下,几年前,Netflix 组织了一个挑战赛(“Netflix 奖”),其目标是产生一个性能比自己的算法更好的推荐系统并获得奖励100 万美元的奖金。

要构建推荐系统,最典型的两种方法是

  • 基于内容 (content-based)
  • 协同过滤 (Collaborative Filtering)

其中协同过滤又分为基于记忆(memory based)和基于模型(Model based)两种方法,接下来我们将重点探讨它们的原理、优缺点等。

2.基于内容的推荐方法(content-based Filtering)

基于内容的方法需要大量关于项目自身特征的信息,而不是使用用户的交互和反馈。例如,可以是类型、年份、导演、演员等电影属性,也可以是应用自然语言处理提取的文章文本内容。

  • 根据物品的属性打标签
  • 通过标签计算相似度

然后,基于内容的方法的想法是尝试基于可用的“特征”构建一个模型,以解释观察到的用户-项目交互。仍然考虑用户和电影,例如,我们将尝试对年轻女性倾向于对某些电影评分较高、年轻男性倾向于对其他电影评分较高等事实进行建模。如果我们设法得到这样的模型,那么为用户做出新的预测就很容易了:我们只需要查看该用户的个人资料(年龄、性别……),并根据这些信息确定相关电影建议。因此基于内容的推荐方法是一种静态的方法。

基于协同过滤的会话推荐_多介质过滤器工作原理_https://bianchenghao6.com/blog__第1张

基于内容的方法受冷启动问题的影响要小得多:新用户或物品可以通过他们的特征(属性)来分析,因此可以为这些新实体提供相关推荐。对于只有新用户或具有以前没有的特征的项目在逻辑上会有问题,但是一旦系统足够久,这几乎不会发生这种情况。中,推荐问题常常被转换为分类问题(预测用户是否“喜欢”某个项目)或回归问题(预测用户对项目的评分)。基于内容通俗的解释,在这两种情况下,我们都将设置一个模型,该模型将基于我们可以使用的用户或项目特征(也就是我们说的基于内容)。

如果我们的分类(或回归)是基于用户特征的,我们说这种方法是以项目为中心的:建模、优化和计算可以“按项目”完成。在这种情况下,我们基于用户特征构建和学习一个模型,试图回答“每个用户喜欢这个项目的概率是多少?”这个问题。 (或者“每个用户给这个项目的评分是多少?”)。通常有许多用户与某一个项目进行交互,因此得出的模型是基于稳健性的。然而,考虑到学习模型的交互来自每个用户,即使这些用户具有相似的特征(特征),他们的偏好也可能不同。这意味着虽然这种方法更鲁棒,但是它比之后的以用户为中心的方法更不具有个性化

如果我们正在研究项目特征,则该方法以用户为中心:建模、优化和计算可以“由用户”完成。然后,我们根据项目特征按用户训练一个模型,试图回答“这个用户喜欢每个项目的概率是多少?”。此时,我们可以为每个用户训练一个模型,所获得的模型比以项目为中心的模型更具个性化推荐,因为它只考虑了来自所研究用户的交互。然而,大多数时候用户与相对较少的项目进行交互,因此,我们获得的模型远不如以项目为中心的模型鲁棒。

基于协同过滤的会话推荐_多介质过滤器工作原理_https://bianchenghao6.com/blog__第2张

从实际的角度来看,在大多数情况下,得到新用户一些信息(用户不想回答太多问题)比得到有关新物品的大量信息要困难得多。(因为使用过这些物品的人有兴趣填写这些信息,以便将他们的项目推荐给正确的用户)。我们还可以注意到,根据要表达的关系的复杂性,我们构建的模型可能从简单到复杂:线性回归到深度神经网络。最后,让我们提一下,基于内容的方法既可以以用户为中心,也可以项目为中心:关于用户和项目的信息都可以用于我们的模型,例如通过堆叠两个特征向量并构建神经网络架构。

2.1以项目为中心的贝叶斯分类器

让我们首先考虑以项目为中心的分类的情况:对于每个项目,我们想要训练一个贝叶斯分类器,该分类器将用户特征作为输入并输出“喜欢”或“不喜欢”。所以,为了完成分类任务,我们要计算
p i t e m ( l i k e ∣ u s e r f e a t u r e s ) p i t e m ( d i s l i k e ∣ u s e r f e a t u r e s ) \frac{p_{item}(like|user_{features})}{p_{item}(dislike|user_{features})} pitem(dislikeuserfeatures)pitem(likeuserfeatures)
具有给定特征的用户喜欢所考虑的项目的概率与其不喜欢它的概率之间的比率。定义我们的分类规则(具有简单阈值)的条件概率比率可以按照贝叶斯公式表示
p i t e m ( l i k e ∣ u s e r f e a t u r e s ) p i t e m ( d i s l i k e ∣ u s e r f e a t u r e s ) = p i t e m ( u s e r f e a t u r e s ∣ l i k e ) × p i t e m ( l i k e ) p i t e m ( u s e r f e a t u r e s ∣ d i s l i k e ) × p i t e m ( d i s l i k e ) \frac{p_{item}(like|user_{features})}{p_{item}(dislike|user_{features})}= \frac{p_{item}(user_{features}|like)\times p_{item}(like)}{p_{item}(user_{features}|dislike)\times p_{item}(dislike)} pitem(dislikeuserfeatures)pitem(likeuserfeatures)=pitem(userfeaturesdislike)×pitem(dislike)pitem(userfeatureslike)×pitem(like)

其中: p i t e m ( l i k e ) p_{item}(like) pitem(like)是先验概率,可以通过之前的数据计算。

p i t e m ( ⋅ ∣ l i k e ) p_{item}(·|like) pitem(like)是条件概率,这是贝叶斯模型中最重要的一部分,首先朴素贝叶斯假设各特征之间是条件独立的。这样我们就可以将条件概率进行拆解。

当特征是离散型数据时,只要很方便的统计训练样本中各个划分在每个类别中出现的频率即可用来估计 P ( u s e r f e a t u r e i ∣ l i k e ) P(user_{feature_i}|like) P(userfeatureilike)

下面重点讨论特征属性是连续值的情况。

当特征是连续型数据:通常假定其值服从高斯分布(也称正态分布)。因此只要计算出训练样本中各个类别中此特征项划分的各均值和标准差,代入正态分布的公式即可得到需要的估计值。均值与标准差的计算在此不再赘述。

另一个需要讨论的问题就是当 P ( u s e r f e a t u r e i ∣ l i k e ) = 0 P(user_{feature_i}|like)=0 P(userfeatureilike)=0怎么办,当某个类别下某个特征项划分没有出现时,就会产生这种现象,这会令分类器质量大大降低。为了解决这个问题,我们引入拉普拉斯平滑法,它的思想非常简单,就是对没类别下所有划分的计数加1,这样如果训练样本集数量充分大时,并不会对结果产生影响,并且解决了上述频率为0的尴尬局面。

基于协同过滤的会话推荐_多介质过滤器工作原理_https://bianchenghao6.com/blog__第3张

2.1以用户为中心的线性回归

现在让我们考虑以用户为中心的回归的情况:对于每个用户,我们想要训练一个简单的线性回归,该回归将项目特征作为输入并输出该项目的评分。我们将 M 表示为用户-项目交互矩阵,矩阵 X 表示要学习的用户系数,矩阵 Y 表示给定的项目特征。然后,对于给定的用户 i,我们通过解决以下优化问题来学习 X i X_i Xi中的系数
X i = m i n 1 2 ∑ ( i , j ) [ ( X i ) ( Y j ) T − M i j ] 2 + λ 2 ∑ k ( X i k ) 2 X_i = min\frac{1}{2}\sum_{(i,j)}[(X_i)(Y_j)^T-M_{ij}]^2+\frac{\lambda}{2}\sum_{k}(X_{ik})^2 Xi=min21(i,j)[(Xi)(Yj)TMij]2+2λk(Xik)2
注意: i 是固定的,因此,第一个求和仅针对与用户 i 相关的 (user, item) 对。我们可以观察到,如果我们同时为所有用户解决建立模型,优化问题与我们后面介绍的保持项目固定时在“交替矩阵分解”中解决的问题完全相同。这说明基于模型的协同过滤方法(例如矩阵分解)和基于内容的方法都假设用户-项目交互存在潜在模型,但基于模型的协同过滤必须学习用户和项目两个矩阵,而基于内容的方法只需要学习用户或项目一个矩阵。

基于协同过滤的会话推荐_多介质过滤器工作原理_https://bianchenghao6.com/blog__第4张

3.协同过滤(Collaborative Filtering)

  • 协同过滤就是通过数据找到与你相似的用户,通过他们的行为和他们喜欢的内容。为你推荐你可能感兴趣的物品或内容
  • 日常生活中,我们也会找到兴趣相同的朋友来帮我们推荐电影或者音乐

协同过滤是一种动态的方法。协同过滤除了用户对一组项目的历史偏好之外,不需要其他任何东西。因为它基于历史数据,所以这里的核心假设是过去喜欢的用户在未来也会喜欢。在用户偏好方面,通常以两类来表示。明确评级, 是用户给一个滑动比例的项目的比率,比如泰坦尼克号的 5 星评分。这是用户最直接的反馈,表明他们有多喜欢一个项目。Implicit Rating,间接反应用户偏好,例如页面浏览量、点击量、购买记录、是否听音乐曲目等。在本文中,我们将仔细研究协同过滤,它是推荐系统的传统且强大的工具。

推荐系统的协同过滤是仅基于用户和项目之间记录的过去交互以产生新推荐的方法。这些交互存储在的“用户-项目交互矩阵”中

基于协同过滤的会话推荐_多介质过滤器工作原理_https://bianchenghao6.com/blog__第5张

然后,协同过滤方法的主要思想是这些过去的用户-项目交互以检测相似的用户和/或相似的项目,并根据这些估计的相似度度进行预测。

协同过滤算法的类别分为两个子类别,通常称为基于记忆的方法和基于模型的方法。基于记忆的方法直接使用记录的交互值,假设没有模型,并且基本上是基于最近邻搜索(例如,从感兴趣的用户中找到最近的用户并给他们推荐在这些用户中最受欢迎的项目)。基于模型的方法假设一个潜在的“生成”模型来解释用户-项目的交互并尝试发现它以做出新的预测。

基于协同过滤的会话推荐_多介质过滤器工作原理_https://bianchenghao6.com/blog__第6张

协同过滤方法的主要优点是它们不需要有关用户或项目的信息,因此他们的使用情景更广。此外,用户与项目的交互越多,新的推荐就越准确:对于一组固定的用户和项目,随着时间的推移记录的新交互会带来新的信息,并使系统越来越有效。

然而,由于它只考虑过去的交互来进行推荐,协同过滤存在“冷启动问题”:不可能向新用户推荐任何东西或向任何用户推荐新项目,并且许多用户或项目的太少的交互得到有效处理。这个缺点可以通过不同的方式解决:向新用户推荐随机项目或向随机用户推荐新项目(随机策略),向新用户推荐流行项目或向最活跃用户推荐新项目(最大期望策略),推荐一组不同的新用户的项目或一组不同用户的新项目(探索性策略),或者最后,对用户或项目的早期使用非协同过滤方法。
下面,我们将主要介绍三种经典的协同过滤方法:两种基于记忆的方法(用户-用户和项目-项目)和一种基于模型的方法(矩阵分解)。

3.1基于记忆的协同过滤

用户-用户和项目-项目的方法主要特征在于它们仅使用来自用户-项目交互矩阵的信息并且他们假设没有模型来产生新的推荐。

3.1.1用户-用户(User-user)

为了向用户做出新的推荐,用户-用户方法粗略地尝试识别具有最相似“交互概况”的用户(最近的邻居),以便推荐在这些邻居中最受欢迎的项目(并且这些项目对于我们的用户而言是新的)。

通俗的来说就是首先根据用户的历史数据信息对其进行分类,然后推荐在同一类用户受欢迎的项目。例如A、B、C三个用户是很相似的,现在A、B用户经常购买D产品,但是C用户从来没买过,我们可以向C用户推荐D产品。

这种方法被称为 “以用户为中心” ,因为它根据用户与项目的交互来表示用户并评估用户之间的距离。

假设我们想为给定用户做出推荐。首先,每个用户都可以用它与不同项目的交互向量(交互矩阵的每一行)来表示。然后,我们可以计算我们感兴趣的用户和其他所有用户之间的某种“相似性”。该相似性度量使得在相同项目上具有相似交互的两个用户应被视为接近。一旦计算出与每个用户的相似度,我们就可以将 k 个最近邻的用户,然后建议其中最受欢迎的项目(仅查看我们的参考用户尚未与之交互的项目)。

请注意,在计算用户之间的相似度时,应该仔细考虑“共同交互”的数量(两个用户有多少个共同的项目)!事实上,在大多数情况下,我们希望避免与我们的参考用户只有一次互动的人但是这一次互动可能有 100% 的匹配,却被认为比拥有 100 次共同互动但是只有98%匹配度的用户更相似。因此,如果两个用户以相同的方式(相似的评分、相似的悬停时间……)与许多常见项目进行交互,我们认为他们是相似的。

基于协同过滤的会话推荐_多介质过滤器工作原理_https://bianchenghao6.com/blog__第7张

3.1.2项目-项目(Item-item)

为了向用户提出新的推荐,item-item 方法的想法是找到与用户已经“积极”交互过的项目相似的项目。如果与两个项目交互的大多数用户都以相似的方式进行操作,则认为两个项目是相似的。这种方法被称为**“以项目为中心”**,因为它基于用户与他们的交互来表示项目,并评估这些项目之间的距离。

假设我们想为给定用户做出推荐。首先,我们考虑这个用户最喜欢的项目,并通过它与每个用户的交互向量(交互矩阵中的“它的列”)来表示它(与所有其他项目一样)。然后,我们可以计算“最佳项目”与所有其他项目之间的相似性。一旦计算出相似性,我们就可以保留k个最近邻的项目给我们感兴趣的用户推荐这些项目。

请注意,为了获得更相关的推荐,我们可以不仅仅针对用户最喜欢的项目做这项工作,而是考虑 **n 个首选项目。**在这种情况下,我们可以推荐与这些首选项目中的几个接近的项目。

基于协同过滤的会话推荐_多介质过滤器工作原理_https://bianchenghao6.com/blog__第8张

3.1.3比较 user-user 和 item-item

用户-用户方法基于在与项目的交互方面搜索相似用户。一般来说,每个用户只与几个项目进行交互,这使得该方法对任何记录的交互都非常敏感(高方差)。另一方面,由于最终推荐仅基于与我们感兴趣的用户相似的用户记录的交互,因此我们获得了更加个性化的结果(低偏差)。
相反,item-item 方法是基于在用户-item 交互方面搜索相似的item。因为一般来说,很多用户都与一个项目进行了交互,所以邻域搜索对单个交互的敏感度要低得多(较低的方差)。作为对应,来自各种用户的交互(甚至是与我们的参考用户非常不同的用户)然后在推荐中被考虑,使得该方法不那么个性化(更多偏见)。因此,这种方法不像用户-用户方法那样个性化,但更鲁棒。

基于协同过滤的会话推荐_多介质过滤器工作原理_https://bianchenghao6.com/blog__第9张

复杂度和副作用

基于记忆的协同过滤的最大缺陷之一是它们不容易扩展:生成新推荐对于大型系统来说可能非常耗时。事实上,对于拥有数百万用户和数百万项目的系统,如果不仔细设计,最近邻搜索步骤可能会变得难以处理(KNN 算法的复杂度为 O(ndk),其中 n 是用户数,d 是项目数,k考虑的邻居的数量)。为了使大型系统的计算更易于处理,我们既可以在设计算法时利用交互矩阵的稀疏性,也可以使用近似最近邻方法 (ANN)。
在大多数推荐算法中,必须非常小心地避免对热门商品产生“越来越多”的效果,并避免让用户陷入所谓的**“信息禁区”。** 换句话说,我们不希望我们的系统倾向于推荐越来越多的热门商品,也不希望我们的用户只收到与他们已经喜欢的商品非常接近的商品的推荐,而没有机会了解他们可能也喜欢新项目(因为这些项目还不够“接近”,无法推荐)。正如我们所提到的,这些问题可能出现在大多数推荐算法中,那么对于基于记忆的协同过滤算法尤其如此。事实上,由于缺乏“规范化”的模型,这种现象可以更加突出和更频繁地观察到。

3.2基于模型的协同过滤方法

基于模型的协同过滤方法仅依赖于用户-项目交互信息,并假设一个潜在模型应该解释这些交互。例如,矩阵分解算法(Matrix Factorization)包括将巨大而稀疏的用户-项目交互矩阵分解为两个较小且密集的矩阵的乘积:一个用户-因素矩阵(包含用户表示)乘以一个因素-项目矩阵(包含项目表示)

例如,考虑我们有一个用户电影评分矩阵。为了对用户和电影之间的交互进行建模,我们可以假设

  • 存在一些电影的特征。
  • 这些特征也可用于描述用户偏好(用户喜欢则特征值高,否则特征值低)

基于协同过滤的会话推荐_多介质过滤器工作原理_https://bianchenghao6.com/blog__第10张

但是,我们不想将这些特征明确地赋予我们的模型(因为它可以用于我们稍后将描述的基于内容的方法)。相反,我们更愿意让系统自己发现这些有用的特征,并自动对用户和物品进行表示。由于它们是学习而不是给出的,因此单独提取的特征具有数学意义,但没有直观的解释。然而,这种算法最终产生的结构非常接近人类可以想到的直观分解。事实上,这种分解的结果是,在偏好方面接近的用户以及在特征方面接近的项目最终在潜在空间中具有接近的表示。

矩阵分解的数学解释

接下来我们将简单的介绍矩阵分解的数学概述。更具体地说,我们描述了一种基于梯度下降的经典迭代方法,它可以在不将所有数据同时加载到计算机内存中的情况下获得非常大矩阵的分解。
让我们考虑一个包含评分的交互矩阵 M (nxm),其中每个用户仅对某些项目进行了评分

基于协同过滤的会话推荐_多介质过滤器工作原理_https://bianchenghao6.com/blog__第11张

其中大多数为 None,表示用户对该电影暂无评分,在推荐系统任务重,往往这个评分矩阵是一个十分稀疏的矩阵。矩阵分解要做的是预测出矩阵中缺失的评分,使得预测评分能反映用户的喜欢程度。我们想要分解该矩阵,使得:
M = X Y T M=XY^T M=XYT
其中X是用户矩阵(User Matrix)(n×l),每一行代表一个用户,Y项目矩阵(Item Matrix)(l×k),每一列代表一个物品。

这里 l 是表示用户和项目的潜在空间的维度。因此,我们搜索矩阵 X 和 Y,其点积最接近现有交互。将 E 表示成对 (i,j) 的集合,使得 M i j M_{ij} Mij 不是空值,我们想要找到最小化“评分误差”的 X 和 Y
( X , Y ) = m i n ∑ M i j ≠ 0 [ M i j − ( X i ) ( Y j ) T ] 2 (X,Y) = min \sum_{M_{ij}\neq0}[M_{ij}-(X_i)(Y_j)^T]^2 (X,Y)=minMij=0[Mij(Xi)(Yj)T]2
添加一个L2正则化,我们得到:
( X , Y ) = m i n 1 2 ∑ M i j ≠ 0 [ M i j − ( X i ) ( Y j ) T ] 2 + λ 2 ( ∑ i , k ( X i k ) 2 + ∑ j , k ( Y j k ) 2 ) (X,Y) = min\frac{1}{2}\sum_{M_{ij}\neq0}[M_{ij}-(X_i)(Y_j)^T]^2+\frac{\lambda}{2}(\sum_{i,k}(X_{ik})^2+\sum_{j,k}(Y_{jk})^2) (X,Y)=min21Mij=0[Mij(Xi)(Yj)T]2+2λ(i,k(Xik)2+j,k(Yjk)2)
我们要做的就是最小化上面这个损失函数。这个时候就是一个最优化的过程。以如何从评分矩阵中分解出User矩阵和Item矩阵,只有左侧的评分矩阵M是已知的,User矩阵和Item矩阵是未知。为了学习出User矩阵和Item矩阵,使得User矩阵*Item矩阵与评分矩阵中已知的评分差异最小 (最优化问题)

然后可以通过梯度下降求解获得矩阵 X 和 Y,我们可以注意到两件事。首先,不必在每一步对 E 中的所有计算梯度,我们可以只考虑这些对的一个子集,以便我们“批量”优化我们的目标函数。其次,X 和 Y 中的值不必同时更新,并且梯度下降可以在每个步骤中交替地在 X 和 Y 上完成(这样做,我们认为一个矩阵是固定的,并在下一步执行相反的操作之前优化另一个矩阵迭代),假设得到结果如下:

基于协同过滤的会话推荐_多介质过滤器工作原理_https://bianchenghao6.com/blog__第12张

一旦矩阵被分解,我们就可以用更少的信息来做出新的推荐:我们可以简单地将用户向量乘以任何项目向量,以估计相应的评分。请注意,我们还可以将用户-用户和项目-项目方法用于用户和项目的这些新表示:(近似)最近邻搜索不会在巨大的稀疏向量上进行,而是在小的密集向量上进行,这使得一些近似技术更易于处理。以电影推荐为例:

某个用户u对电影i的预测评分 = User向量和Item向量的内积

基于协同过滤的会话推荐_多介质过滤器工作原理_https://bianchenghao6.com/blog__第13张

把这两个矩阵相乘,就能得到每个用户对每部电影的预测评分了,评分值越大,表示用户喜欢该电影的可能性越大,该电影就越值得推荐给用户。

最后我们可以注意到,这种基本分解的概念可以扩展到更复杂的模型,例如,更通用的神经网络,我们可以想到的第一个就是布尔值交互矩阵。如果我们想重建布尔交互,简单的点积就不能很好地完成。但是,如果我们在该点积之上添加一个logistic函数,我们会得到一个模型,它的值在 [0, 1] 中,因此可以更好地解决问题。在这种情况下,要优化的模型是
m i n 1 2 ∑ M i j ≠ 0 [ f ( X i , Y j T ) − M i j ] 2 + λ 2 ( ∑ i , k ( X i k 2 ) + ∑ j , k ( Y i k ) 2 ) min\frac{1}{2}\sum_{M_{ij}\neq0}[f(X_i,Y_j^T)-M_{ij}]^2+\frac{\lambda}{2}(\sum_{i,k}(X_{ik}^2)+\sum_{j,k}(Y_{ik})^2) min21Mij=0[f(Xi,YjT)Mij]2+2λ(i,k(Xik2)+j,k(Yik)2)
其中 f(.) 是logistic函数。更深层次的神经网络模型通常在复杂的推荐系统中实现接近最先进的性能(SOTA)。

基于协同过滤的会话推荐_多介质过滤器工作原理_https://bianchenghao6.com/blog__第14张

4.模型、偏差和方差

让我们更多地关注前面提到的方法之间的主要区别。尤其是让我们看看对偏差和方差的影响。
基于记忆的协同过滤方法中,没有假设潜在模型。该算法直接处理用户-项目交互:例如,用户通过他们与项目的交互来表示,并使用对这些表示的最近邻搜索来产生建议。由于没有假设潜在模型,这些方法理论上具有低偏差但高方差。
基于模型的协同过滤方法中,假设了一些潜在的交互模型。该模型经过训练,可以从其自己的用户和项目表示中重建用户-项目交互值。然后可以根据这个模型提出新的建议。模型提取的用户和项目潜在表示具有数学含义,人类难以解释。由于假设了用户-项目交互的模型,因此与假设没有潜在模型的方法相比,该方法理论上具有更高的偏差但方差更低。
最后,在基于内容的方法中,还假设了一些潜在的交互模型。然而,在这里,模型提供了定义用户和项目表示的内容:例如,用户由给定的特征表示,我们尝试为每个项目建模喜欢或不喜欢该项目的用户特征。在这里,对于基于模型的过滤方法,假设了用户-项目交互模型。然而,该模型受到更多约束(因为给出了用户和项目的表示),因此该方法往往具有最高的偏差但最低的方差。

基于协同过滤的会话推荐_多介质过滤器工作原理_https://bianchenghao6.com/blog__第15张

5.推荐系统的评估

对于任何机器学习算法,我们都需要能够评估推荐系统的性能,以确定哪种算法最适合我们的情况。推荐系统的评估方法主要可以分为两组:基于定义明确的指标的评估和主要基于人类判断和满意度估计的评估。

5.1基于评价指标的评估

如果我们的推荐系统基于输出数值的模型,例如评分预测或匹配概率,我们可以使用误差测量指标,例如均方误差(MSE)以非常经典的方式评估这些输出的质量。 在这种情况下,模型仅在部分可用交互数据上进行训练,并在其余交互数据上进行测试。

如果我们的推荐系统基于预测数值的模型,我们也可以使用经典的阈值方法对这些值进行二值化(高于阈值的值为正,低于阈值的值为负)并以“分类方式”评估模型. 实际上,由于用户-项目过去交互的数据集也是二值化的(或者可以通过阈值化进行二值化),因此我们可以评估模型在测试数据集上的二值化输出的准确性(以及精度和召回率)。

最后,如果我们现在考虑一个不基于数值的推荐系统,它只返回一个推荐列表(例如基于 knn 方法的用户-用户或项目-项目),我们仍然可以定义一个精度,如度量估计真正适合我们用户的推荐项目的比例。为了估计这个精度,我们不能考虑我们的用户没有与之交互的推荐项目,我们应该只考虑我们有用户反馈的测试数据集中的项目。

5.2基于人的评估

在设计推荐系统时,我们不仅对获得产生我们非常确定的推荐的模型感兴趣,而且我们还可以期待其他一些好的特性,例如推荐的多样性和可解释性。
正如在协同过滤中提到的,我们希望避免让用户陷入我们之前所说的信息限制区域。 “偶然性”的概念通常用于表达模型具有或不具有创建此类限制区域的趋势(建议的多样性)。偶然性,可以通过计算推荐项目之间的距离来估计,不应该太低,因为它会产生限制区域,但也不应该太高,因为这意味着我们在推荐时没有足够考虑用户的兴趣建议(探索与利用)。 Exploitation: 展示以往感兴趣的内容。Exploration: 展示多样性的内容。因此,为了在建议的选择中带来多样性,我们希望推荐既非常适合我们的用户又不太相似的项目。例如,与其推荐用户“开始战争1,2,3”,不如推荐“星球大战1”、“开始跋涉进入黑暗”和“印第安纳琼斯与失落的方舟袭击者”:这两个稍后可能会被我们的系统视为引起用户兴趣的机会较少,但推荐 3 个看起来过于相似的项目并不是一个好的选择。
可解释性是推荐算法成功的另一个关键点。事实上,已经证明,如果用户不理解他们被推荐为特定项目的原因,他们往往会对推荐系统失去信心。所以,如果我们设计一个可以清楚解释的模型,我们可以在推荐时添加一个小句子说明为什么推荐一个项目(“喜欢这个项目的人也喜欢另一个项目”,“你喜欢这个项目,你可能对这个感兴趣”……)。
最后,除了多样性和可解释性本质上难以评估这一事实之外,我们可以注意到评估不属于测试数据集的推荐的质量也非常困难:如何知道是否有新的推荐在实际向我们的用户推荐之前是否相关?由于所有这些原因,有时在“真实条件”中测试模型是很有用的。由于推荐系统的目标是产生行为(看电影、购买产品、阅读文章等),我们确实可以评估其产生预期行为的能力。例如,该系统可以按照 A/B 测试方法投入生产,也可以仅在用户样本上进行测试。在测试需要对模型设置一定水平的置信度。 α = 0.05 \alpha=0.05 α=0.05

6.总结

第一、推荐算法可以分为两大经典模型:基于协同过滤方法(例如用户-用户、项目-项目和矩阵分解)和基于内容的方法

第二、基于记忆的协同过滤方法不假设任何潜在模型,因此具有低偏差但高方差;基于模型的协同过滤假设一个潜在的交互模型需要从头开始学习用户和项目的特征,因此具有更高的偏差但更低的方差;基于内容的方法假设一个潜在模型围绕用户和/或项目特征构建,因此具有最高的偏差和最低的方差

第三、推荐系统难以评估:如果可以使用 MSE、准确率、召回率或精确率等一些经典指标,则应记住,我们无法以这种方式评估某些属性,例如多样性(偶然性)和可解释性;实地工作中(离线测试、小批量线上AB测试、 全流量上线)最终是评估新推荐系统的唯一真实方法,但需要设定一定的置信水平

第四、我们应该注意,我们尚未在此介绍性文章中讨论混合方法。这些方法结合了协作过滤和基于内容的方法,可以在许多情况下实现最新的方法,因此如今已在许多大型推荐系统中使用。混合方法中制作的组合主要可以采用两种形式:我们可以独立训练两个模型(一个协同过滤模型和一个基于内容的模型),并结合他们的建议。或者直接构建一个统一两种方法的模型(通常是神经网络)通过使用先验信息(关于用户和项目)以及交互信息作为输入。谢谢阅读!笔者认识有限,如有错误,以您的为准,欢迎在评论区改正。

参考资料:

深度学习推荐系统.王喆
https://medium.com/towards-data-science/introduction-to-recommender-systems-6c66cf15ada

今天的分享到此就结束了,感谢您的阅读,如果确实帮到您,您可以动动手指转发给其他人。

上一篇

已是最后文章

下一篇

已是最新文章

发表回复