推荐系统基础之介绍入门篇(代码片段)

五包辣条! 五包辣条!     2023-01-16     296

关键词:

大家好,我是辣条。

今天给大家带来推荐系统介绍入门。

目录

一、推荐系统简介

二、推荐系统设计

2.1 推荐系统要素

2.2 推荐系统架构

三、推荐算法

一 推荐模型构建流程

二 最经典的推荐算法:协同过滤推荐算法(Collaborative Filtering)

三 相似度计算(Similarity Calculation)

协同过滤推荐算法代码实现:

基于模型的方法

四、案例--基于协同过滤的电影推荐

五、案例--算法实现:User-Based CF 预测评分

六、案例--算法实现:Item-Based CF 预测评分

七、推荐系统评估

八、推荐系统的冷启动问题


一、推荐系统简介

个性化推荐(推荐系统)经历了多年的发展,已经成为互联网产品的标配,也是AI成功落地的分支之一,在电商(淘宝/京东)、资讯(今日头条/微博)、音乐(网易云音乐/QQ音乐)、短视频(抖音/快手)等热门应用中,推荐系统都是核心组件之一。

  • 推荐系统产生背景

    • 信息过载 & 用户需求不明确

      • 分类⽬录(1990s):覆盖少量热门⽹站。Hao123 Yahoo

      • 搜索引擎(2000s):通过搜索词明确需求。Google Baidu

      • 推荐系统(2010s):不需要⽤户提供明确的需求,通过分析⽤ 户的历史⾏为给⽤户的兴趣进⾏建模,从⽽主动给⽤户推荐能 够满⾜他们兴趣和需求的信息。

  • 什么是推荐系统

    • 没有明确需求的用户访问了我们的服务, 且服务的物品对用户构成了信息过载, 系统通过一定的规则对物品进行排序,并将排在前面的物品展示给用户,这样的系统就是推荐系统

  • 推荐系统 V.S. 搜索引擎

    搜索推荐
    行为方式主动被动
    意图明确模糊
    个性化
    流量分布马太效应长尾效应
    目标快速满足持续服务
    评估指标简明复杂
  • 推荐系统的作用

    • 高效连接用户和物品, 发现长尾商品

    • 留住用户和内容生产者, 实现商业目标

  • 推荐系统的工作原理

    • 社会化推荐 向朋友咨询, 社会化推荐, 让好友给自己推荐物品

    • 基于内容的推荐 打开搜索引擎, 输入自己喜欢的演员的名字, 然后看看返回结果中还有什么电影是自己没看过的

    • 基于流行度的推荐 查看票房排行榜,

    • 基于协同过滤的推荐 找到和自己历史兴趣相似的用户, 看看他们最近在看什么电影

  • 推荐系统的应用场景 feed 流 信息流

  • 推荐系统和Web项目的区别

    • 稳定的信息流通系统 V.S. 通过信息过滤实现目标提升

      • web项目: 处理复杂逻辑 处理高并发 实现高可用 为用户提供稳定服务, 构建一个稳定的信息流通的服务

      • 推荐系统: 追求指标增长, 留存率/阅读时间/GMV (Gross Merchandise Volume电商网站成交金额)/视频网站VV (Video View)

    • 确定 V.S. 不确定思维

      • web项目: 对结果有确定预期

      • 推荐系统: 结果是概率问题

二、推荐系统设计

2.1 推荐系统要素

  • UI 和 UE(前端界面)

  • 数据 (Lambda架构)

  • 业务知识

  • 算法

2.2 推荐系统架构

  • 推荐系统整体架构

  • 大数据Lambda架构

    • 由Twitter工程师Nathan Marz(storm项目发起人)提出

    • Lambda系统架构提供了一个结合实时数据和Hadoop预先计算的数据环境和混合平台, 提供一个实时的数据视图

    • 分层架构

      • 批处理层

        • 数据不可变, 可进行任何计算, 可水平扩展

        • 高延迟 几分钟~几小时(计算量和数据量不同)

        • 日志收集 Flume

        • 分布式存储 Hadoop hdfs

        • 分布式计算 Hadoop MapReduce & spark

        • 视图存储数据库

          • nosql(HBase/Cassandra)

          • Redis/memcache

          • MySQL

      • 实时处理层

        • 流式处理, 持续计算

        • 存储和分析某个窗口期内的数据

        • 最终正确性(Eventual accuracy)

        • 实时数据收集 flume & kafka

        • 实时数据分析 spark streaming/storm/flink

      • 服务层

        • 支持随机读

        • 需要在非常短的时间内返回结果

        • 读取批处理层和实时处理层结果并对其归并

    • Lambda架构图

  • 推荐算法架构

    • 召回阶段(海选)

      • 召回决定了最终推荐结果的天花板

      • 常用算法:

        • 协同过滤(基于用户 基于物品的)

        • 基于内容 (根据用户行为总结出自己的偏好 根据偏好 通过文本挖掘技术找到内容上相似的商品)

        • 基于隐语义

    • 排序阶段

      • 召回决定了最终推荐结果的天花板, 排序逼近这个极限, 决定了最终的推荐效果

      • CTR预估 (点击率预估 使用LR算法) 估计用户是否会点击某个商品 需要用户的点击数据

    • 策略调整

  • 推荐系统的整体架构

三、推荐算法

  • 推荐模型构建流程

  • 推荐算法概述

  • 基于协同过滤的推荐算法

  • 协同过滤实现

一 推荐模型构建流程

Data(数据)->Features(特征)->ML Algorithm(机器学习算法)->Prediction Output(预测输出)

  • 数据清洗/数据处理

  • 数据来源

    • 显性数据

      • Rating 打分

      • Comments 评论/评价

    • 隐形数据

      • Order history 历史订单

      • Cart events 加购物车

      • Page views 页面浏览

      • Click-thru 点击

      • Search log 搜索记录

  • 数据量/数据能否满足要求

  • 特征工程

  • 从数据中筛选特征

    • 一个给定的商品,可能被拥有类似品味或需求的用户购买

    • 使用用户行为数据描述商品

  • 用数据表示特征

    • 将所有用户行为合并在一起 ,形成一个user-item 矩阵

  • 选择合适的算法

  • 产生推荐结果

二 最经典的推荐算法:协同过滤推荐算法(Collaborative Filtering)

算法思想:物以类聚,人以群分

基本的协同过滤推荐算法基于以下假设:

  • “跟你喜好相似的人喜欢的东西你也很有可能喜欢” :基于用户的协同过滤推荐(User-based CF)

  • “跟你喜欢的东西相似的东西你也很有可能喜欢 ”:基于物品的协同过滤推荐(Item-based CF)

实现协同过滤推荐有以下几个步骤:

  1. 找出最相似的人或物品:TOP-N相似的人或物品

    通过计算两两的相似度来进行排序,即可找出TOP-N相似的人或物品

  2. 根据相似的人或物品产生推荐结果

    利用TOP-N结果生成初始推荐结果,然后过滤掉用户已经有过记录的物品或明确表示不感兴趣的物品

以下是一个简单的示例,数据集相当于一个用户对物品的购买记录表:打勾表示用户对物品的有购买记录

  • 关于相似度计算这里先用一个简单的思想:如有两个同学X和Y,X同学爱好[足球、篮球、乒乓球],Y同学爱好[网球、足球、篮球、羽毛球],可见他们的共同爱好有2个,那么他们的相似度可以用:2/3 * 2/4 = 1/3 ≈ 0.33 来表示。

    User-Based CF

    Item-Based CF

    通过前面两个demo,相信大家应该已经对协同过滤推荐算法的设计与实现有了比较清晰的认识。

三 相似度计算(Similarity Calculation)

  • 相似度的计算方法

    • 数据分类

      • 实数值(物品评分情况)

      • 布尔值(用户的行为 是否点击 是否收藏)

    • 欧氏距离, 是一个欧式空间下度量距离的方法. 两个物体, 都在同一个空间下表示为两个点, 假如叫做p,q, 分别都是n个坐标, 那么欧式距离就是衡量这两个点之间的距离. 欧氏距离不适用于布尔向量之间

    欧氏距离的值是一个非负数, 最大值正无穷, 通常计算相似度的结果希望是[-1,1]或[0,1]之间,一般可以使用

    如下转化公式:

     

  • 杰卡德相似度&余弦相似度&皮尔逊相关系数

    • 余弦相似度

      • 度量的是两个向量之间的夹角, 用夹角的余弦值来度量相似的情况

      • 两个向量的夹角为0是,余弦值为1, 当夹角为90度是余弦值为0,为180度是余弦值为-1

      • 余弦相似度在度量文本相似度, 用户相似度 物品相似度的时候较为常用

      • 余弦相似度的特点, 与向量长度无关,余弦相似度计算要对向量长度归一化, 两个向量只要方向一致,无论程度强弱, 都可以视为'相似'

    • 皮尔逊相关系数Pearson

      • 实际上也是一种余弦相似度, 不过先对向量做了中心化, 向量a b 各自减去向量的均值后, 再计算余弦相似度

      • 皮尔逊相似度计算结果在-1,1之间 -1表示负相关, 1表示正相关

      • 度量两个变量是不是同增同减

      • 皮尔逊相关系数度量的是两个变量的变化趋势是否一致, 不适合计算布尔值向量之间的相关度

    • 杰卡德相似度 Jaccard

      • 两个集合的交集元素个数在并集中所占的比例, 非常适用于布尔向量表示

      • 分子是两个布尔向量做点积计算, 得到的就是交集元素的个数

      • 分母是两个布尔向量做或运算, 再求元素和

    • 余弦相似度适合用户评分数据(实数值), 杰卡德相似度适用于隐式反馈数据(0,1布尔值)(是否收藏,是否点击,是否加购物车)

  • 余弦相似度

  • 皮尔逊相关系数

  • 计算出用户1和其它用户之间的相似度

  • 按照相似度大小排序, K近邻 如K取4:

  • 取出近邻用户的购物清单

  • 去除用户1已经购买过的商品

  • 在剩余的物品中根据评分排序

  • 物品相似度计算

    • 余弦相似度对绝对值大小不敏感带来的问题

      • 用户A对两部电影评分分别是1分和2分, 用户B对同样这两部电影进行评分是4分,5分 用余弦相似度计算,两个用户的相似度达到0.98

      • 可以采用改进的余弦相似度, 先计算向量每个维度上的均值, 然后每个向量在各个维度上都减去均值后,在计算余弦相似度, 用调整的余弦相似度计算得到的相似度是-0.1

  • 物品相似度计算案例

  • 找出物品1的相似商品

  • 选择最近似的物品

  • 基于用户与物品的协同过滤比较

协同过滤推荐算法代码实现:

  • 构建数据集:

    users = ["User1", "User2", "User3", "User4", "User5"]
    items = ["Item A", "Item B", "Item C", "Item D", "Item E"]
    # 构建数据集
    datasets = [
        ["buy",None,"buy","buy",None],
        ["buy",None,None,"buy","buy"],
        ["buy",None,"buy",None,None],
        [None,"buy",None,"buy","buy"],
        ["buy","buy","buy",None,"buy"],
    ]
  • 计算时我们数据通常都需要对数据进行处理,或者编码,目的是为了便于我们对数据进行运算处理,比如这里是比较简单的情形,我们用1、0分别来表示用户的是否购买过该物品,则我们的数据集其实应该是这样的:

    users = ["User1", "User2", "User3", "User4", "User5"]
    items = ["Item A", "Item B", "Item C", "Item D", "Item E"]
    # 用户购买记录数据集
    datasets = [
        [1,0,1,1,0],
        [1,0,0,1,1],
        [1,0,1,0,0],
        [0,1,0,1,1],
        [1,1,1,0,1],
    ]
    import pandas as pd
    ​
    df = pd.DataFrame(datasets,
                      columns=items,
                      index=users)
    print(df)

  • 有了数据集,接下来我们就可以进行相似度的计算,不过对于相似度的计算其实是有很多专门的相似度计算方法的,比如余弦相似度、皮尔逊相关系数、杰卡德相似度等等。这里我们选择使用杰卡德相似系数[0,1]

    # 直接计算某两项的杰卡德相似系数
    from sklearn.metrics import jaccard_similarity_score
    # 计算Item A 和Item B的相似度
    print(jaccard_similarity_score(df["Item A"], df["Item B"]))
    ​
    ​
    # 计算所有的数据两两的杰卡德相似系数
    from sklearn.metrics.pairwise import pairwise_distances
    # 计算用户间相似度
    user_similar = 1 - pairwise_distances(df, metric="jaccard")
    user_similar = pd.DataFrame(user_similar, columns=users, index=users)
    print("用户之间的两两相似度:")
    print(user_similar)
    ​
    # 计算物品间相似度
    item_similar = 1 - pairwise_distances(df.T, metric="jaccard")
    item_similar = pd.DataFrame(item_similar, columns=items, index=items)
    print("物品之间的两两相似度:")
    print(item_similar)

    有了两两的相似度,接下来就可以筛选TOP-N相似结果,并进行推荐了

  • User-Based CF

    import pandas as pd
    import numpy as np
    from pprint import pprint
    ​
    users = ["User1", "User2", "User3", "User4", "User5"]
    items = ["Item A", "Item B", "Item C", "Item D", "Item E"]
    # 用户购买记录数据集
    datasets = [
        [1,0,1,1,0],
        [1,0,0,1,1],
        [1,0,1,0,0],
        [0,1,0,1,1],
        [1,1,1,0,1],
    ]
    ​
    df = pd.DataFrame(datasets,
                      columns=items,
                      index=users)
    ​
    # 计算所有的数据两两的杰卡德相似系数
    from sklearn.metrics.pairwise import pairwise_distances
    # 计算用户间相似度
    user_similar = 1 - pairwise_distances(df, metric="jaccard")
    user_similar = pd.DataFrame(user_similar, columns=users, index=users)
    print("用户之间的两两相似度:")
    print(user_similar)
    ​
    topN_users = 
    # 遍历每一行数据
    for i in user_similar.index:
        # 取出每一列数据,并删除自身,然后排序数据
        _df = user_similar.loc[i].drop([i])
        _df_sorted = _df.sort_values(ascending=False)
    ​
        top2 = list(_df_sorted.index[:2])
        topN_users[i] = top2
    ​
    print("Top2相似用户:")
    pprint(topN_users)
    ​
    rs_results = 
    # 构建推荐结果
    for user, sim_users in topN_users.items():
        rs_result = set()    # 存储推荐结果
        for sim_user in sim_users:
            # 构建初始的推荐结果
            rs_result = rs_result.union(set(df.ix[sim_user].replace(0,np.nan).dropna().index))
        # 过滤掉已经购买过的物品
        rs_result -= set(df.ix[user].replace(0,np.nan).dropna().index)
        rs_results[user] = rs_result
    print("最终推荐结果:")
    pprint(rs_results)

  • Item-Based CF

    import pandas as pd
    import numpy as np
    from pprint import pprint
    ​
    users = ["User1", "User2", "User3", "User4", "User5"]
    items = ["Item A", "Item B", "Item C", "Item D", "Item E"]
    # 用户购买记录数据集
    datasets = [
        [1,0,1,1,0],
        [1,0,0,1,1],
        [1,0,1,0,0],
        [0,1,0,1,1],
        [1,1,1,0,1],
    ]
    ​
    df = pd.DataFrame(datasets,
                      columns=items,
                      index=users)
    ​
    # 计算所有的数据两两的杰卡德相似系数
    from sklearn.metrics.pairwise import pairwise_distances
    # 计算物品间相似度
    item_similar = 1 - pairwise_distances(df.T, metric="jaccard")
    item_similar = pd.DataFrame(item_similar, columns=items, index=items)
    print("物品之间的两两相似度:")
    print(item_similar)
    ​
    topN_items = 
    # 遍历每一行数据
    for i in item_similar.index:
        # 取出每一列数据,并删除自身,然后排序数据
        _df = item_similar.loc[i].drop([i])
        _df_sorted = _df.sort_values(ascending=False)
    ​
        top2 = list(_df_sorted.index[:2])
        topN_items[i] = top2
    ​
    print("Top2相似物品:")
    pprint(topN_items)
    ​
    rs_results = 
    # 构建推荐结果
    for user in df.index:    # 遍历所有用户
        rs_result = set()
        for item in df.ix[user].replace(0,np.nan).dropna().index:   # 取出每个用户当前已购物品列表
            # 根据每个物品找出最相似的TOP-N物品,构建初始推荐结果
            rs_result = rs_result.union(topN_items[item])
        # 过滤掉用户已购的物品
        rs_result -= set(df.ix[user].replace(0,np.nan).dropna().index)
        # 添加到结果中
        rs_results[user] = rs_result
    ​
    print("最终推荐结果:")
    pprint(rs_results)

关于协同过滤推荐算法使用的数据集

在前面的demo中,我们只是使用用户对物品的一个购买记录,类似也可以是比如浏览点击记录、收听记录等等。这样数据我们预测的结果其实相当于是在预测用户是否对某物品感兴趣,对于喜好程度不能很好的预测。

因此在协同过滤推荐算法中其实会更多的利用用户对物品的“评分”数据来进行预测,通过评分数据集,我们可以预测用户对于他没有评分过的物品的评分。其实现原理和思想和都是一样的,只是使用的数据集是用户-物品的评分数据。

关于用户-物品评分矩阵

用户-物品的评分矩阵,根据评分矩阵的稀疏程度会有不同的解决方案

  • 稠密评分矩阵

  • 稀疏评分矩阵

这里先介绍稠密评分矩阵的处理,稀疏矩阵的处理相对会复杂一些,我们到后面再来介绍。

使用协同过滤推荐算法对用户进行评分预测

  • 数据集:

    目的:预测用户1对物品E的评分

  • 构建数据集:注意这里构建评分数据时,对于缺失的部分我们需要保留为None,如果设置为0那么会被当作评分值为0去对待

    users = ["User1", "User2", "User3", "User4", "User5"]
    items = ["Item A", "Item B", "Item C", "Item D", "Item E"]
    # 用户购买记录数据集
    datasets = [
        [5,3,4,4,None],
        [3,1,2,3,3],
        [4,3,4,3,5],
        [3,3,1,5,4],
        [1,5,5,2,1],
    ]

  • 计算相似度:对于评分数据这里我们采用皮尔逊相关系数[-1,1]来计算,-1表示强负相关,+1表示强正相关

    pandas中corr方法可直接用于计算皮尔逊相关系数

    df = pd.DataFrame(datasets,
                      columns=items,
                      index=users)
    ​
    print("用户之间的两两相似度:")
    # 直接计算皮尔逊相关系数
    # 默认是按列进行计算,因此如果计算用户间的相似度,当前需要进行转置
    user_similar = df.T.corr()
    print(user_similar.round(4))
    ​
    print("物品之间的两两相似度:")
    item_similar = df.corr()
    print(item_similar.round(4))
    # 运行结果:
    用户之间的两两相似度:
            User1   User2   User3   User4   User5
    User1  1.0000  0.8528  0.7071  0.0000 -0.7921
    User2  0.8528  1.0000  0.4677  0.4900 -0.9001
    User3  0.7071  0.4677  1.0000 -0.1612 -0.4666
    User4  0.0000  0.4900 -0.1612  1.0000 -0.6415
    User5 -0.7921 -0.9001 -0.4666 -0.6415  1.0000
    物品之间的两两相似度:
            Item A  Item B  Item C  Item D  Item E
    Item A  1.0000 -0.4767 -0.1231  0.5322  0.9695
    Item B -0.4767  1.0000  0.6455 -0.3101 -0.4781
    Item C -0.1231  0.6455  1.0000 -0.7206 -0.4276
    Item D  0.5322 -0.3101 -0.7206  1.0000  0.5817
    Item E  0.9695 -0.4781 -0.4276  0.5817  1.0000

    可以看到与用户1最相似的是用户2和用户3;与物品A最相似的物品分别是物品E和物品D。

    注意:我们在预测评分时,往往是通过与其有正相关的用户或物品进行预测,如果不存在正相关的情况,那么将无法做出预测。这一点尤其是在稀疏评分矩阵中尤为常见,因为稀疏评分矩阵中很难得出正相关系数。

  • 评分预测:

    User-Based CF 评分预测:使用用户间的相似度进行预测

    关于评分预测的方法也有比较多的方案,下面介绍一种效果比较好的方案,该方案考虑了用户本身的评分评分以及近邻用户的加权平均相似度打分来进行预测:

    我们要预测用户1对物品E的评分,那么可以根据与用户1最近邻的用户2和用户3进行预测,计算如下:

    最终预测出用户1对物品5的评分为3.91

    Item-Based CF 评分预测:使用物品间的相似度进行预测

    这里利用物品相似度预测的计算同上,同样考虑了用户自身的平均打分因素,结合预测物品与相似物品的加权平均相似度打分进行来进行预测

    我们要预测用户1对物品E的评分,那么可以根据与物品E最近邻的物品A和物品D进行预测,计算如下:

    对比可见,User-Based CF预测评分和Item-Based CF的评分结果也是存在差异的,因为严格意义上他们其实应当属于两种不同的推荐算法,各自在不同的领域不同场景下,都会比另一种的效果更佳,但具体哪一种更佳,必须经过合理的效果评估,因此在实现推荐系统时这两种算法往往都是需要去实现的,然后对产生的推荐效果进行评估分析选出更优方案。

基于模型的方法

  • 思想

    • 通过机器学习算法,在数据中找出模式,并将用户与物品间的互动方式模式化

    • 基于模型的协同过滤方式是构建协同过滤更高级的算法

  • 近邻模型的问题

    • 物品之间存在相关性, 信息量并不随着向量维度增加而线性增加

    • 矩阵元素稀疏, 计算结果不稳定,增减一个向量维度, 导致近邻结果差异很大的情况存在

  • 算法分类

    • 基于图的模型

    • 基于矩阵分解的方法

  • 基于图的模型

    • 基于邻域的模型看做基于图的模型的简单形式

    • 原理

      • 将用户的行为数据表示为二分图

      • 基于二分图为用户进行推荐

      • 根据两个顶点之间的路径数、路径长度和经过的顶点数来评价两个顶点的相关性

  • 基于矩阵分解的模型

    • 原理

      • 根据用户与物品的潜在表现,我们就可以预测用户对未评分的物品的喜爱程度

      • 把原来的大矩阵, 近似分解成两个小矩阵的乘积, 在实际推荐计算时不再使用大矩阵, 而是使用分解得到的两个小矩阵

      • 用户-物品评分矩阵A是M X N维, 即一共有M个用户, n个物品 我们选一个很小的数 K (K<< M, K<<N)

      • 通过计算得到两个矩阵U V U是M * K矩阵 , 矩阵V是 N * K

        $Um*k V^Tnk 约等于 A_mn$

        类似这样的计算过程就是矩阵分解

    • 基于矩阵分解的方法

      • ALS交替最小二乘

        • ALS-WR(加权正则化交替最小二乘法): alternating-least-squares with weighted-λ –regularization

        • 将用户(user)对商品(item)的评分矩阵分解为两个矩阵:一个是用户对商品隐含特征的偏好矩阵,另一个是商品所包含的隐含特征的矩阵。在这个矩阵分解的过程中,评分缺失项得到了填充,也就是说我们可以基于这个填充的评分来给用户做商品推荐了。

      • SVD奇异值分解矩阵

  • ALS方法

    • ALS的矩阵分解算法常应用于推荐系统中,将用户(user)对商品(item)的评分矩阵,分解为用户对商品隐含特征的偏好矩阵,和商品在隐含特征上的映射矩阵。

    • 与传统的矩阵分解SVD方法来分解矩阵R(R∈ℝm×n)不同的是,ALS(alternating least squares)希望找到两个低维矩阵,以 R̃ =XY 来逼近矩阵R,其中 ,X∈ℝm×d,Y∈ℝd×n,这样,将问题的复杂度由O(mn)转换为O((m+n)d)。

    • 计算X和Y过程:首先用一个小于1的随机数初始化Y,并根据公式求X,此时就可以得到初始的XY矩阵了,根据平方差和得到的X,重新计算并覆盖Y,计算差平方和,反复进行以上两步的计算,直到差平方和小于一个预设的数,或者迭代次数满足要求则停止

四、案例--基于协同过滤的电影推荐

前面我们已经基本掌握了协同过滤推荐算法,以及其中两种最基本的实现方案:User-Based CF和Item-Based CF,下面我们将利用真是的数据来进行实战演练。

案例需求 演示效果

分析案例

数据集下载

MovieLens Latest Datasets Small

建议下载ml-latest-small.zip,数据量小,便于我们单机使用和运行

目标:根据ml-latest-small/ratings.csv(用户-电影评分数据),分别实现User-Based CF和Item-Based CF,并进行电影评分的预测,然后为用户实现电影推荐

数据集加载

  • 加载ratings.csv,并转换为用户-电影评分矩阵

    import os
    ​
    import pandas as pd
    import numpy as np
    ​
    DATA_PATH = "./datasets/ml-latest-small/ratings.csv"
    CACHE_DIR = "./datasets/cache/"
    ​
    def load_data(data_path):
        '''
        加载数据
        :param data_path: 数据集路径
        :param cache_path: 数据集缓存路径
        :return: 用户-物品评分矩阵
        '''
        # 数据集缓存地址
        cache_path = os.path.join(CACHE_DIR, "ratings_matrix.cache")
    ​
        print("开始加载数据集...")
        if os.path.exists(cache_path):    # 判断是否存在缓存文件
            print("加载缓存中...")
            ratings_matrix = pd.read_pickle(cache_path)
            print("从缓存加载数据集完毕")
        else:
            print("加载新数据中...")
            # 设置要加载的数据字段的类型
            dtype = "userId": np.int32, "movieId": np.int32, "rating": np.float32
            # 加载数据,我们只用前三列数据,分别是用户ID,电影ID,已经用户对电影的对应评分
            ratings = pd.read_csv(data_path, dtype=dtype, usecols=range(3))
            # 透视表,将电影ID转换为列名称,转换成为一个User-Movie的评分矩阵
            ratings_matrix = ratings.pivot_table(index=["userId"], columns=["movieId"], values="rating")
            # 存入缓存文件
            ratings_matrix.to_pickle(cache_path)
            print("数据集加载完毕")
        return  ratings_matrix
    ​
    if __name__ == '__main__':
        ratings_matrix = load_data(DATA_PATH)
        print(ratings_matrix)

相似度计算

  • 计算用户或物品两两相似度:

    # ......
    ​
    def compute_pearson_similarity(ratings_matrix, based="user"):
        '''
        计算皮尔逊相关系数
        :param ratings_matrix: 用户-物品评分矩阵
        :param based: "user" or "item"
        :return: 相似度矩阵
        '''
        user_similarity_cache_path = os.path.join(CACHE_DIR, "user_similarity.cache")
        item_similarity_cache_path = os.path.join(CACHE_DIR, "item_similarity.cache")
        # 基于皮尔逊相关系数计算相似度
        # 用户相似度
        if based == "user":
            if os.path.exists(user_similarity_cache_path):
                print("正从缓存加载用户相似度矩阵")
                similarity = pd.read_pickle(user_similarity_cache_path)
            else:
                print("开始计算用户相似度矩阵")
                similarity = ratings_matrix.T.corr()
                similarity.to_pickle(user_similarity_cache_path)
    ​
        elif based == "item":
            if os.path.exists(item_similarity_cache_path):
                print("正从缓存加载物品相似度矩阵")
                similarity = pd.read_pickle(item_similarity_cache_path)
            else:
                print("开始计算物品相似度矩阵")
                similarity = ratings_matrix.corr()
                similarity.to_pickle(item_similarity_cache_path)
        else:
            raise Exception("Unhandled 'based' Value: %s"%based)
        print("相似度矩阵计算/加载完毕")
        return similarity
    ​
    if __name__ == '__main__':
    ​
        ratings_matrix = load_data(DATA_PATH)
    ​
        user_similar = compute_pearson_similarity(ratings_matrix, based="user")
        print(user_similar)
        item_similar = compute_pearson_similarity(ratings_matrix, based="item")
        print(item_similar)

注意

以上实现,仅用于实验阶段,因为工业上、或生产环境中,数据量是远超过我们本例中使用的数据量的,而pandas是无法支撑起大批量数据的运算的,因此工业上通常会使用spark、mapReduce等分布式计算框架来实现,我们后面的课程中也是建立在此基础上进行实践的。

但是正如前面所说,推荐算法的思想和理念都是统一的,不论使用什么平台工具、有多大的数据体量,其背后的实现原理都是不变的。

所以在本节,大家要深刻去学习的是推荐算法的业务流程,以及在具体的业务场景中,如本例的电影推荐,如何实现出推荐算法,并产生推荐结果。

五、案例--算法实现:User-Based CF 预测评分

评分预测公式:

算法实现

  • 实现评分预测方法:predict

     
    # ......
    ​
    def predict(uid, iid, ratings_matrix, user_similar):
        '''
        预测给定用户对给定物品的评分值
        :param uid: 用户ID
        :param iid: 物品ID
        :param ratings_matrix: 用户-物品评分矩阵
        :param user_similar: 用户两两相似度矩阵
        :return: 预测的评分值
        '''
        print("开始预测用户<%d>对电影<%d>的评分..."%(uid, iid))
        # 1. 找出uid用户的相似用户
        similar_users = user_similar[uid].drop([uid]).dropna()
        # 相似用户筛选规则:正相关的用户
        similar_users = similar_users.where(similar_users>0).dropna()
        if similar_users.empty is True:
            raise Exception("用户<%d>没有相似的用户" % uid)
    ​
        # 2. 从uid用户的近邻相似用户中筛选出对iid物品有评分记录的近邻用户
        ids = set(ratings_matrix[iid].dropna().index)&set(similar_users.index)
        finally_similar_users = similar_users.ix[list(ids)]
    ​
        # 3. 结合uid用户与其近邻用户的相似度预测uid用户对iid物品的评分
        sum_up = 0    # 评分预测公式的分子部分的值
        sum_down = 0    # 评分预测公式的分母部分的值
        for sim_uid, similarity in finally_similar_users.iteritems():
            # 近邻用户的评分数据
            sim_user_rated_movies = ratings_matrix.ix[sim_uid].dropna()
            # 近邻用户对iid物品的评分
            sim_user_rating_for_item = sim_user_rated_movies[iid]
            # 计算分子的值
            sum_up += similarity * sim_user_rating_for_item
            # 计算分母的值
            sum_down += similarity
    ​
        # 计算预测的评分值并返回
        predict_rating = sum_up/sum_down
        print("预测出用户<%d>对电影<%d>的评分:%0.2f" % (uid, iid, predict_rating))
        return round(predict_rating, 2)
    ​
    if __name__ == '__main__':
        ratings_matrix = load_data(DATA_PATH)
    ​
        user_similar = compute_pearson_similarity(ratings_matrix, based="user")
        # 预测用户1对物品1的评分
        predict(1, 1, ratings_matrix, user_similar)
        # 预测用户1对物品2的评分
        predict(1, 2, ratings_matrix, user_similar)
    实现预测全部评分方法:predict_all
    
    # ......
    def predict_all(uid, ratings_matrix, user_similar):
        '''
        预测全部评分
        :param uid: 用户id
        :param ratings_matrix: 用户-物品打分矩阵
        :param user_similar: 用户两两间的相似度
        :return: 生成器,逐个返回预测评分
        '''
        # 准备要预测的物品的id列表
        item_ids = ratings_matrix.columns
        # 逐个预测
        for iid in item_ids:
            try:
                rating = predict(uid, iid, ratings_matrix, user_similar)
            except Exception as e:
                print(e)
            else:
                yield uid, iid, rating
    ​
    if __name__ == '__main__':
        ratings_matrix = load_data(DATA_PATH)
    ​
        user_similar = compute_pearson_similarity(ratings_matrix, based="user")
    ​
        for i in predict_all(1, ratings_matrix, user_similar):
            pass
     
  • 添加过滤规则

    def _predict_all(uid, item_ids, ratings_matrix, user_similar):
        '''
        预测全部评分
        :param uid: 用户id
        :param item_ids: 要预测的物品id列表
        :param ratings_matrix: 用户-物品打分矩阵
        :param user_similar: 用户两两间的相似度
        :return: 生成器,逐个返回预测评分
        '''
        # 逐个预测
        for iid in item_ids:
            try:
                rating = predict(uid, iid, ratings_matrix, user_similar)
            except Exception as e:
                print(e)
            else:
                yield uid, iid, rating
    ​
    def predict_all(uid, ratings_matrix, user_similar, filter_rule=None):
        '''
        预测全部评分,并可根据条件进行前置过滤
        :param uid: 用户ID
        :param ratings_matrix: 用户-物品打分矩阵
        :param user_similar: 用户两两间的相似度
        :param filter_rule: 过滤规则,只能是四选一,否则将抛异常:"unhot","rated",["unhot","rated"],None
        :return: 生成器,逐个返回预测评分
        '''
    ​
        if not filter_rule:
            item_ids = ratings_matrix.columns
        elif isinstance(filter_rule, str) and filter_rule == "unhot":
            '''过滤非热门电影'''
            # 统计每部电影的评分数
            count = ratings_matrix.count()
            # 过滤出评分数高于10的电影,作为热门电影
            item_ids = count.where(count>10).dropna().index
        elif isinstance(filter_rule, str) and filter_rule == "rated":
            '''过滤用户评分过的电影'''
            # 获取用户对所有电影的评分记录
            user_ratings = ratings_matrix.ix[uid]
            # 评分范围是1-5,小于6的都是评分过的,除此以外的都是没有评分的
            _ = user_ratings<6
            item_ids = _.where(_==False).dropna().index
        elif isinstance(filter_rule, list) and set(filter_rule) == set(["unhot", "rated"]):
            '''过滤非热门和用户已经评分过的电影'''
            count = ratings_matrix.count()
            ids1 = count.where(count > 10).dropna().index
    ​
            user_ratings = ratings_matrix.ix[uid]
            _ = user_ratings < 6
            ids2 = _.where(_ == False).dropna().index
            # 取二者交集
            item_ids = set(ids1)&set(ids2)
        else:
            raise Exception("无效的过滤参数")
    ​
        yield from _predict_all(uid, item_ids, ratings_matrix, user_similar)
    ​
    if __name__ == '__main__':
        ratings_matrix = load_data(DATA_PATH)
    ​
        user_similar = compute_pearson_similarity(ratings_matrix, based="user")
    ​
        for result in predict_all(1, ratings_matrix, user_similar, filter_rule=["unhot", "rated"]):
            print(result)

  • 根据预测评分为指定用户进行TOP-N推荐:

    # ......
    ​
    def top_k_rs_result(k):
        ratings_matrix = load_data(DATA_PATH)
        user_similar = compute_pearson_similarity(ratings_matrix, based="user")
        results = predict_all(1, ratings_matrix, user_similar, filter_rule=["unhot", "rated"])
        return sorted(results, key=lambda x: x[2], reverse=True)[:k]
    ​
    if __name__ == '__main__':
        from pprint import pprint
        result = top_k_rs_result(20)
        pprint(result)
     

六、案例--算法实现:Item-Based CF 预测评分

评分预测公式:

算法实现

  • 实现评分预测方法:predict

    • 方法说明:

      利用原始评分矩阵、以及物品间两两相似度,预测指定用户对指定物品的评分。

      如果无法预测,则抛出异常

    # ......
    ​
    def predict(uid, iid, ratings_matrix, item_similar):
        '''
        预测给定用户对给定物品的评分值
        :param uid: 用户ID
        :param iid: 物品ID
        :param ratings_matrix: 用户-物品评分矩阵
        :param item_similar: 物品两两相似度矩阵
        :return: 预测的评分值
        '''
        print("开始预测用户<%d>对电影<%d>的评分..."%(uid, iid))
        # 1. 找出iid物品的相似物品
        similar_items = item_similar[iid].drop([iid]).dropna()
        # 相似物品筛选规则:正相关的物品
        similar_items = similar_items.where(similar_items>0).dropna()
        if similar_items.empty is True:
            raise Exception("物品<%d>没有相似的物品" %id)
    ​
        # 2. 从iid物品的近邻相似物品中筛选出uid用户评分过的物品
        ids = set(ratings_matrix.ix[uid].dropna().index)&set(similar_items.index)
        finally_similar_items = similar_items.ix[list(ids)]
    ​
        # 3. 结合iid物品与其相似物品的相似度和uid用户对其相似物品的评分,预测uid对iid的评分
        sum_up = 0    # 评分预测公式的分子部分的值
        sum_down = 0    # 评分预测公式的分母部分的值
        for sim_iid, similarity in finally_similar_items.iteritems():
            # 近邻物品的评分数据
            sim_item_rated_movies = ratings_matrix[sim_iid].dropna()
            # uid用户对相似物品物品的评分
            sim_item_rating_from_user = sim_item_rated_movies[uid]
            # 计算分子的值
            sum_up += similarity * sim_item_rating_from_user
            # 计算分母的值
            sum_down += similarity
    ​
        # 计算预测的评分值并返回
        predict_rating = sum_up/sum_down
        print("预测出用户<%d>对电影<%d>的评分:%0.2f" % (uid, iid, predict_rating))
        return round(predict_rating, 2)
    ​
    if __name__ == '__main__':
        ratings_matrix = load_data(DATA_PATH)
    ​
        item_similar = compute_pearson_similarity(ratings_matrix, based="item")
        # 预测用户1对物品1的评分
        predict(1, 1, ratings_matrix, item_similar)
        # 预测用户1对物品2的评分
        predict(1, 2, ratings_matrix, item_similar)

  • 实现预测全部评分方法:predict_all

    # ......
    ​
    def predict_all(uid, ratings_matrix, item_similar):
        '''
        预测全部评分
        :param uid: 用户id
        :param ratings_matrix: 用户-物品打分矩阵
        :param item_similar: 物品两两间的相似度
        :return: 生成器,逐个返回预测评分
        '''
        # 准备要预测的物品的id列表
        item_ids = ratings_matrix.columns
        # 逐个预测
        for iid in item_ids:
            try:
                rating = predict(uid, iid, ratings_matrix, item_similar)
            except Exception as e:
                print(e)
            else:
                yield uid, iid, rating
    ​
    if __name__ == '__main__':
        ratings_matrix = load_data(DATA_PATH)
    ​
        item_similar = compute_pearson_similarity(ratings_matrix, based="item")
        for i in predict_all(1, ratings_matrix, item_similar):
            pass

  • 添加过滤规则

    def _predict_all(uid, item_ids,ratings_matrix, item_similar):
        '''
        预测全部评分
        :param uid: 用户id
        :param item_ids: 要预测物品id列表
        :param ratings_matrix: 用户-物品打分矩阵
        :param item_similar: 物品两两间的相似度
        :return: 生成器,逐个返回预测评分
        '''
        # 逐个预测
        for iid in item_ids:
            try:
                rating = predict(uid, iid, ratings_matrix, item_similar)
            except Exception as e:
                print(e)
            else:
                yield uid, iid, rating
    ​
    def predict_all(uid, ratings_matrix, item_similar, filter_rule=None):
        '''
        预测全部评分,并可根据条件进行前置过滤
        :param uid: 用户ID
        :param ratings_matrix: 用户-物品打分矩阵
        :param item_similar: 物品两两间的相似度
        :param filter_rule: 过滤规则,只能是四选一,否则将抛异常:"unhot","rated",["unhot","rated"],None
        :return: 生成器,逐个返回预测评分
        '''
    ​
        if not filter_rule:
            item_ids = ratings_matrix.columns
        elif isinstance(filter_rule, str) and filter_rule == "unhot":
            '''过滤非热门电影'''
            # 统计每部电影的评分数
            count = ratings_matrix.count()
            # 过滤出评分数高于10的电影,作为热门电影
            item_ids = count.where(count>10).dropna().index
        elif isinstance(filter_rule, str) and filter_rule == "rated":
            '''过滤用户评分过的电影'''
            # 获取用户对所有电影的评分记录
            user_ratings = ratings_matrix.ix[uid]
            # 评分范围是1-5,小于6的都是评分过的,除此以外的都是没有评分的
            _ = user_ratings<6
            item_ids = _.where(_==False).dropna().index
        elif isinstance(filter_rule, list) and set(filter_rule) == set(["unhot", "rated"]):
            '''过滤非热门和用户已经评分过的电影'''
            count = ratings_matrix.count()
            ids1 = count.where(count > 10).dropna().index
    ​
            user_ratings = ratings_matrix.ix[uid]
            _ = user_ratings < 6
            ids2 = _.where(_ == False).dropna().index
            # 取二者交集
            item_ids = set(ids1)&set(ids2)
        else:
            raise Exception("无效的过滤参数")
    ​
        yield from _predict_all(uid, item_ids, ratings_matrix, item_similar)
    ​
    if __name__ == '__main__':
        ratings_matrix = load_data(DATA_PATH)
    ​
        item_similar = compute_pearson_similarity(ratings_matrix, based="item")
    ​
        for result in predict_all(1, ratings_matrix, item_similar, filter_rule=["unhot", "rated"]):
            print(result)

  • 为指定用户推荐TOP-N结果

    # ......
    ​
    def top_k_rs_result(k):
        ratings_matrix = load_data(DATA_PATH)
    ​
        item_similar = compute_pearson_similarity(ratings_matrix, based="item")
        results = predict_all(1, ratings_matrix, item_similar, filter_rule=["unhot", "rated"])
        return sorted(results, key=lambda x: x[2], reverse=True)[:k]
    ​
    if __name__ == '__main__':
        from pprint import pprint
        result = top_k_rs_result(20)
        pprint(result)

七、推荐系统评估

  • 好的推荐系统可以实现用户, 服务提供方, 内容提供方的共赢

  • 显示反馈和隐式反馈

    显式反馈隐式反馈
    例子电影/书籍评分 是否喜欢这个推荐播放/点击 评论 下载 购买
    准确性
    数量
    获取成本
  • 常用评估指标

    • 准确性 • 信任度 • 满意度 • 实时性 • 覆盖率 • 鲁棒性 • 多样性 • 可扩展性 • 新颖性 • 商业⽬标 • 惊喜度 • ⽤户留存

    • 准确性 (理论角度) Netflix 美国录像带租赁

      • 评分预测

        • RMSE MAE

      • topN推荐

        • 召回率 精准率

    • 准确性 (业务角度)

    • 覆盖度

      • 信息熵 对于推荐越大越好

      • 覆盖率

    • 多样性&新颖性&惊喜性

      • 多样性:推荐列表中两两物品的不相似性。(相似性如何度量?

      • 新颖性:未曾关注的类别、作者;推荐结果的平均流⾏度

      • 惊喜性:历史不相似(惊)但很满意(喜)

      • 往往需要牺牲准确性

      • 使⽤历史⾏为预测⽤户对某个物品的喜爱程度

      • 系统过度强调实时性

    • Exploitation & Exploration 探索与利用问题

      • Exploitation(开发 利用):选择现在可能最佳的⽅案

      • Exploration(探测 搜索):选择现在不确定的⼀些⽅案,但未来可能会有⾼收益的⽅案

      • 在做两类决策的过程中,不断更新对所有决策的不确定性的认知,优化 长期的⽬标

    • EE问题实践

      • 兴趣扩展: 相似话题, 搭配推荐

      • 人群算法: userCF 用户聚类

      • 平衡个性化推荐和热门推荐比例

      • 随机丢弃用户行为历史

      • 随机扰动模型参数

    • EE可能带来的问题

      • 探索伤害用户体验, 可能导致用户流失

      • 探索带来的长期收益(留存率)评估周期长, KPI压力大

      • 如何平衡实时兴趣和长期兴趣

      • 如何平衡短期产品体验和长期系统生态

      • 如何平衡大众口味和小众需求

    • 评估方法

      • 问卷调查: 成本高

      • 离线评估:

        • 只能在用户看到过的候选集上做评估, 且跟线上真实效果存在偏差

        • 只能评估少数指标

        • 速度快, 不损害用户体验

      • 在线评估: 灰度发布 & A/B测试 50% 全量上线

      • 实践: 离线评估和在线评估结合, 定期做问卷调查

八、推荐系统的冷启动问题

  • 推荐系统冷启动概念

    • ⽤户冷启动:如何为新⽤户做个性化推荐

    • 物品冷启动:如何将新物品推荐给⽤户(协同过滤)

    • 系统冷启动:⽤户冷启动+物品冷启动

    • 本质是推荐系统依赖历史数据,没有历史数据⽆法预测⽤户偏好

  • 用户冷启动

    • 1.收集⽤户特征

      • ⽤户注册信息:性别、年龄、地域

      • 设备信息:定位、⼿机型号、app列表

      • 社交信息、推⼴素材、安装来源

    • 2 引导用户填写兴趣

    • 3 使用其它站点的行为数据, 例如腾讯视频&QQ音乐 今日头条&抖音

    • 4 新老用户推荐策略的差异

      • 新⽤户在冷启动阶段更倾向于热门排⾏榜,⽼⽤户会更加需要长尾推荐

      • Explore Exploit⼒度

      • 使⽤单独的特征和模型预估

    • 举例 性别与电视剧的关系

  • 物品冷启动

    • 给物品打标签

    • 利用物品的内容信息,将新物品先投放给曾经喜欢过和它内容相似的其他物品的用户。

  • 系统冷启动

    • 基于内容的推荐 系统早期

    • 基于内容的推荐逐渐过渡到协同过滤

    • 基于内容的推荐和协同过滤的推荐结果都计算出来 加权求和得到最终推荐结果

行业资料:添加即可领取PPT模板、简历模板、行业经典书籍PDF。
面试题库:历年经典,热乎的大厂面试真题,持续更新中,添加获取。
学习资料:含Python、爬虫、数据分析、算法等学习视频和文档,添加获取
交流加群:大佬指点迷津,你的问题往往有人遇到过,技术互助交流。

👇🏻 获取可通过搜索下方 

c++入门篇之模板基础讲解(代码片段)

文章目录前言引入模板函数模板模板的匹配原则模板的显示调用类模板注意1注意2前言今天博主将要介绍的内容是–模板,他在C++中具有非常重要的位置.至于什么是模板呢?我们请看下面的章节.引入我们对交换函数Swap已经非... 查看详情

pandas高级数据分析快速入门之二——基础篇(代码片段)

...——Python开发环境篇Pandas高级数据分析快速入门之二——基础篇Pandas高级数据分析快速入门之三——统计分析篇Pandas高级数据分析快速入门之四——表内、表间数据处理篇Pandas高级数据分析快速入门之五——机器学习特征工程篇... 查看详情

云小课|mrs基础入门之hdfs组件介绍(代码片段)

摘要:HDFS是MapReduce服务中的基础文件系统,全称为Hadoop的分布式文件系统(HadoopDistributedFileSystem),可支持实现大规模数据可靠的分布式读写。本文分享自华为云社区《【云小课】EI第21课MRS基础入门之HDFS组件介绍》,原文作者... 查看详情

推荐系统炼丹笔记:多模态推荐之用户评论篇(代码片段)

作者:一元公众号:炼丹笔记目前非常多的推荐系统主要使用用户的一些基础反馈信息来作为最终的标签进行模型的训练,例如点击/购买等,但是却鲜有文章去进一步挖掘用户的其它反馈,例如用户对于该产品的评论,很多的... 查看详情

c++基础篇——类与对象入门(中)(代码片段)

作者介绍:关于作者:东条希尔薇,一名喜欢编程的在校大学生主攻方向:c++和linux码云主页点我本系列仓库直通车作者CSDN主页地址目录类的默认成员函数之构造函数构造函数定义及其特性构造函数的其它... 查看详情

数平精准推荐|ocr技术之系统篇

导语:如果说算法和数据是跑车的发动机和汽油,那么系统则是变速箱,稳定而灵活的变速箱,是图像识别服务向前推进的基础。算法、数据、系统三位一体,随着算法的快速发展和数据的日益积累,系统也在高效而稳定地升级... 查看详情

kotlin基础从入门到进阶系列讲解(入门篇)android之gson的使用(代码片段)

Kotlin基础从入门到进阶系列讲解(入门篇)Android之GSON的使用Android之GSON的使用Android之GSON的使用->返回总目录<-Google提供的GSON开源库可以让解析JSON数据的工作简单到让你不敢想象的地步项目中需要添加GSON库的依赖。编辑app/b... 查看详情

k8s入门系列之介绍篇

...么是kubernetes  Kubernetes(k8s)是Google开源的容器集群管理系统(谷歌内部:Borg)。在Docker技术的基础上,为容器化的应用提供部署运行、资源调 查看详情

vue入门基础教程之经验总结篇(小白入门必备)|建议收藏(代码片段)

...lot二、Vue生命周期中的钩子函数三、自定义指令四、mixins基础概况五、修饰符一、vue组件的三个API:prop、event、slotprop定义了这个组件有哪些可配置的属性,组件的核心功能也都是它来确定的。组件里定义的prop都是单向... 查看详情

网络基础之网络协议篇(代码片段)

。。。。。。。额,实在没有啥子说的咯,推荐一篇博文吧,写得非常好请点击   传送门: 查看详情

k8s入门系列之介绍篇

... 2.什么是kubernetesKubernetes(k8s)是Google开源的容器集群管理系统(谷歌内部:Borg)。在Docker技术的基础上,为容器化 查看详情

pandas高级数据分析快速入门之四——数据可视化篇(代码片段)

...——Python开发环境篇Pandas高级数据分析快速入门之二——基础篇Pandas高级数据分析快速入门之三——数据挖掘与统计分析篇Pandas高级数据分析快速入门之四——数据可视化篇Pandas高级数据分析快速入门之五——机器学习特征工程... 查看详情

pandas高级数据分析快速入门之五——机器学习特征工程篇(代码片段)

...——Python开发环境篇Pandas高级数据分析快速入门之二——基础篇Pandas高级数据分析快速入门之三——数据挖掘与统计分析篇Pandas高级数据分析快速入门之四——数据可视化篇Pandas高级数据分析快速入门之五——机器学习特征工程... 查看详情

pandas高级数据分析快速入门之五——机器学习特征工程篇(代码片段)

...——Python开发环境篇Pandas高级数据分析快速入门之二——基础篇Pandas高级数据分析快速入门之三——数据挖掘与统计分析篇Pandas高级数据分析快速入门之四——数据可视化篇Pandas高级数据分析快速入门之五——机器学习特征工程... 查看详情

django基础之model操作数据库model基础入门推荐(代码片段)

当程序涉及到数据库相关操作时,我们一般都会这么操作:(1)创建数据库,设计表结构和字段(2)使用MySQLdb来连接数据库,并编写数据访问层代码(3)业务逻辑层去调用数据访问层,执行数据库操作Django主要通过models类操作数据库... 查看详情

pandas高级数据分析快速入门之六——机器学习预测分析篇(代码片段)

...——Python开发环境篇Pandas高级数据分析快速入门之二——基础篇Pandas高级数据分析快速入门之三——数据挖掘与统计分析篇Pandas高级数据分析快速入门之四——数据可视化篇Pandas高级数据分析快速入门之五——机器学习特征工程... 查看详情

[cordova之入门篇](代码片段)

...ebapplication转化成mobileapplication。可降低开发成本。3.cordova基础 查看详情

k8s入门系列之集群安装篇(代码片段)

...集群组件:  -etcd一个高可用的K/V键值对存储和服务发现系统  -flannel实现夸主机的容器网络的通信  -kube-apiserver提供kubernetes集群的API调用  -kube-controller-manager确保集群服务  -kube-scheduler调度容器,分配到Node  -kubelet... 查看详情