关键词:
从数据集获取有趣信息的方法:常用的两种分别是频繁项集和关联规则。
FP-growth:虽然可以高效的发现频繁项集,但是不能用于发现关联规则。
FP-growth算法只需要对数据库进行两次扫描,速度要比Apriori算法块。
FP-growth发现频繁项集的基本过程:
① 构建FP树
第一遍 对所有元素项的出现次数进行技术,用来统计出现的频率。
第二遍 只考虑哪些频繁元素
② 从FP树种挖掘频繁项集。
从FP树种抽取频繁项集的三个基本步骤:
① 从FP树种获得条件模式基
② 利用条件模式基,构建一个条件FP树
③ 迭代重复步骤(1)步骤(2),知道树包含一个元素项为止。
条件模式基:是以查找元素项为结尾的路径集合。
#coding:utf-8 #FP数的类定义 class treeNode: def __init__(self, nameValue, numOccur, parentNode): self.name = nameValue #存放节点名字的变量 self.count = numOccur #计数值 self.nodeLink = None #用于链接相似的元素项 self.parent = parentNode #父变量parent来指向挡墙节点的父节点 self.children = {} #空字典用来存放节点的子节点 #对count变量增加给定值 def inc(self, numOccur): self.count += numOccur #用于将数以文本形式展示,非必要,但是便于调试 def disp(self, ind=1): print ‘ ‘*ind, self.name, ‘ ‘, self.count for child in self.children.values(): child.disp(ind+1) #构建FP树 def createTree(dataSet, minSup=1): #使用数据集以及最小支持度作为参赛来构建FP树 headerTable = {} #创建空的头指针表 #遍历数据集两次 for trans in dataSet:#first pass counts frequency of occurance for item in trans: headerTable[item] = headerTable.get(item, 0) + dataSet[trans] for k in headerTable.keys(): #删除出现次数少于minsup的项 if headerTable[k] < minSup: del(headerTable[k]) freqItemSet = set(headerTable.keys()) if len(freqItemSet) == 0: return None, None #如果所有项都不频繁,就不进行下一步了 for k in headerTable: headerTable[k] = [headerTable[k], None] #reformat headerTable to use Node link retTree = treeNode(‘Null Set‘, 1, None) #create tree for tranSet, count in dataSet.items(): #go through dataset 2nd time localD = {} for item in tranSet: #put transaction items in order if item in freqItemSet: localD[item] = headerTable[item][0] if len(localD) > 0: orderedItems = [v[0] for v in sorted(localD.items(), key=lambda p: p[1], reverse=True)] updateTree(orderedItems, retTree, headerTable, count)#populate tree with ordered freq itemset return retTree, headerTable #return tree and header table def updateTree(items, inTree, headerTable, count): if items[0] in inTree.children:#测试事务中的第一个元素是否作为子节点存在,如果存在,更新该元素项的计数 inTree.children[items[0]].inc(count) else: #如果不存在,则创建一个新的treeNode,并将其作为一个子节点添加到树中 inTree.children[items[0]] = treeNode(items[0], count, inTree) if headerTable[items[0]][1] == None: #update header table headerTable[items[0]][1] = inTree.children[items[0]] else: updateHeader(headerTable[items[0]][1], inTree.children[items[0]]) #更新头指针表 if len(items) > 1:#不断迭代调用自身,每次调用时会去掉列表中的第一个元素 updateTree(items[1::], inTree.children[items[0]], headerTable, count) def updateHeader(nodeToTest, targetNode): #它确保节点链接指向树中该元素项的每一个实例 while (nodeToTest.nodeLink != None): #Do not use recursion to traverse a linked list! nodeToTest = nodeToTest.nodeLink nodeToTest.nodeLink = targetNode def ascendTree(leafNode, prefixPath): #ascends from leaf node to root if leafNode.parent != None: prefixPath.append(leafNode.name) ascendTree(leafNode.parent, prefixPath) def findPrefixPath(basePat, treeNode): #treeNode comes from header table condPats = {} while treeNode != None: prefixPath = [] ascendTree(treeNode, prefixPath) if len(prefixPath) > 1: condPats[frozenset(prefixPath[1:])] = treeNode.count treeNode = treeNode.nodeLink return condPats #递归查找频繁项集 def mineTree(inTree, headerTable, minSup, preFix, freqItemList): bigL = [v[0] for v in sorted(headerTable.items(), key=lambda p: p[1])]# 对头指针表中的元素项按照其出现频率进行排序 for basePat in bigL: #start from bottom of header table newFreqSet = preFix.copy() newFreqSet.add(basePat) freqItemList.append(newFreqSet) condPattBases = findPrefixPath(basePat, headerTable[basePat][1]) myCondTree, myHead = createTree(condPattBases, minSup) if myHead != None: #如果树中有元素项,递归调用mineTree()函数 mineTree(myCondTree, myHead, minSup, newFreqSet, freqItemList) def loadSimpDat(): simpDat = [[‘r‘, ‘z‘, ‘h‘, ‘j‘, ‘p‘], [‘z‘, ‘y‘, ‘x‘, ‘w‘, ‘v‘, ‘u‘, ‘t‘, ‘s‘], [‘z‘], [‘r‘, ‘x‘, ‘n‘, ‘o‘, ‘s‘], [‘y‘, ‘r‘, ‘x‘, ‘z‘, ‘q‘, ‘t‘, ‘p‘], [‘y‘, ‘z‘, ‘x‘, ‘e‘, ‘q‘, ‘s‘, ‘t‘, ‘m‘]] return simpDat def createInitSet(dataSet): retDict = {} for trans in dataSet: retDict[frozenset(trans)] = 1 return retDict import twitter from time import sleep import re def textParse(bigString): urlsRemoved = re.sub(‘(http:[/][/]|www.)([a-z]|[A-Z]|[0-9]|[/.]|[~])*‘, ‘‘, bigString) #re.sub使用给定的替换内容将匹配模式的子字符串 listOfTokens = re.split(r‘W*‘, urlsRemoved) #通过正则表达式将字符串分离 return [tok.lower() for tok in listOfTokens if len(tok) > 2] #列表推导式生成新列表 #处理认证然后创建一个空列表 def getLotsOfTweets(searchStr): CONSUMER_KEY = ‘get when you create an app‘ CONSUMER_SECRET = ‘get when you create an app‘ ACCESS_TOKEN_KEY = ‘get from Oauth,apecific to a user‘ ACCESS_TOKEN_SECRET = ‘get from Oauth,apecific to a user‘ api = twitter.Api(consumer_key=CONSUMER_KEY, consumer_secret=CONSUMER_SECRET, access_token_key=ACCESS_TOKEN_KEY, access_token_secret=ACCESS_TOKEN_SECRET) #you can get 1500 results 15 pages * 100 per page resultsPages = [] for i in range(1,15): print "fetching page %d" % i searchResults = api.GetSearch(searchStr, per_page=100, page=i) resultsPages.append(searchResults) sleep(6) return resultsPages #构建FP树并对其进行挖掘,最后返回所有频繁项集组成的列表 def mineTweets(tweetArr, minSup=5): parsedList = [] for i in range(14): for j in range(100): parsedList.append(textParse(tweetArr[i][j].text)) initSet = createInitSet(parsedList) myFPtree, myHeaderTab = createTree(initSet, minSup) myFreqList = [] mineTree(myFPtree, myHeaderTab, minSup, set([]), myFreqList) return myFreqList
本文出自 “付炜超” 博客,谢绝转载!
机器学习实战精读--------决策树
感觉自己像个学走路的孩子,每一步都很吃力和认真!机器根据数据集创建规则,就是机器学习。决策树:从数据集合中提取一系列规则,适用于探索式的知识发现。决策树本质:通过一系列规则对数据进行分类的过程。决策树... 查看详情
机器学习实战精读--------回归
回归的目的是预测数值型的目标值神经网络学习机理:分解和整合回归:求回归系数的过程最小二乘法:它的主要思想就是选择未知参数,使得理论值与观测值之差的平方和达到最小欠拟合:模型没有很好地捕捉到数据特征,不... 查看详情
《机器学习实战》使用apriori算法和fp-growth算法进行关联分析(python版)
======================================== 查看详情
机器学习实战精读--------logistic回归
Logistic回归的主要目的:寻找一个非线性函数sigmod最佳的拟合参数拟合、插值和逼近是数值分析的三大工具回归:对一直公式的位置参数进行估计拟合:把平面上的一些系列点,用一条光滑曲线连接起来logistic主要思想:根据现... 查看详情
机器学习实战精读--------apriori算法
关联分析(关联规则学习):从大规模数据集中寻找物品间的隐含关系,Apriori算法:一种挖掘关联规则的频繁项算法,其核心是通过候选集生成和情节的向下封闭检测ll阶段来挖掘频繁项集,它是最具影响的挖掘布尔关联规则频... 查看详情
机器学习实战精读--------奇异值分解(svd)
奇异值分解(SVD):是一种强大的降维工具,通过利用SVD来逼近矩阵并从中提取重要特征,通过保留矩阵80%~90%的能量,就能得到重要的特征并去掉噪声SVD分解会降低程序的速度,大型系统中SVD每天运行一次或者频率更低,并且... 查看详情
机器学习实战精读--------主成分分析(pca)
对数据进行简化的原因:①使得数据集更容易使用②降低许多算法的计算开销③去除噪声④使得结果易懂方差是衡量数据源和期望值相差的度量值。PCA:数据从原来的坐标系转换到新的坐标系,新坐标系是有数据本身决定的。因... 查看详情
apriori算法与fp-growth算法
....关联分析2.Apriori原理3.使用Apriori算法来发现频繁集4.使用FP-growth算法来高效发现频繁项集5.示例:从新闻网站点击流中挖掘新闻报道扩展阅读系列文章:《机器学习实战》学习笔记最近看了《机器学习实战》中的第11章(使用Aprio... 查看详情
机器学习实战精读--------k-均值聚类算法
一个聚类算法只需要知道如何计算相似度就可以了K-均值(k-means)聚类算法:该算法可以发现K个不同的簇,每个簇的中心采用簇中所安置的均值计算而成。分层聚类算法①BIRCH算法:结合了层次聚类算... 查看详情
《机器学习实战》书上的apriori算法内循环为啥只执行了一次
....................................................................6112使用FP-growth算法来高效分析频繁项集....................................................................6512.1fpGrowth.py..................................................................................................... 查看详情
机器学习实战[machinelearninginaction]
...督学习及其一些主要算法:k均值聚类算法、Apriori算法、FP-Growth算法。第四部分介绍了机器学习算法的一些附属工具。 《机器学习实战》通过精心编排的实例,切入日常工作任务,摒弃学术化语言,利用高效的可复用Python代... 查看详情
学习打卡02可解释机器学习笔记之zfnet
可解释机器学习笔记之ZFNet文章目录可解释机器学习笔记之ZFNetZFNet介绍ZFNet结构特征可视化可视化结构特征不变性特征演化遮挡性分析其他内容总结和思考首先非常感谢同济子豪兄拍摄的可解释机器学习公开课,并且免费分... 查看详情
学习打卡05可解释机器学习笔记之cam+captum代码实战(代码片段)
可解释机器学习笔记之CAM+Captum代码实战文章目录可解释机器学习笔记之CAM+Captum代码实战代码实战介绍torch-cam工具包可视化CAM类激活热力图预训练ImageNet-1000图像分类-单张图像视频以及摄像头预测pytorch-grad-cam工具包Grad-CAM热... 查看详情
学习打卡07可解释机器学习笔记之shape+lime代码实战(代码片段)
可解释机器学习笔记之Shape+Lime代码实战文章目录可解释机器学习笔记之Shape+Lime代码实战基于Shapley值的可解释性分析使用Pytorch对MNIST分类可解释性分析使用shap的DeepExplainer进行可视化使用Pytorch对预训练ImageNet图像分类可解... 查看详情
学习打卡07可解释机器学习笔记之shape+lime代码实战(代码片段)
可解释机器学习笔记之Shape+Lime代码实战文章目录可解释机器学习笔记之Shape+Lime代码实战基于Shapley值的可解释性分析使用Pytorch对MNIST分类可解释性分析使用shap的DeepExplainer进行可视化使用Pytorch对预训练ImageNet图像分类可解... 查看详情
机器学习算法应用和学习_1fp-growth算法
一、背景 为什么会学习FP-growth算法?起因是在工作中有两个场景想知道哪些组合比较频繁,分析频繁出现的原因,并以此分类给用户贴上标签或根据频繁组合场景发现是否有必要增改场景。以往一般是直接SQL跑出不同组合的... 查看详情
《机器学习实战》-机器学习基础(代码片段)
目录机器学习基础什么是机器学习机器学习应用场景海量数据机器学习的重要性机器学习的基本术语监督学习和非监督学习监督学习:supervisedlearning非监督学习:unsupervisedlearning机器学习工具介绍Python非PythonNumPy函数库基础测试Nu... 查看详情
机器学习常见性能指标《机器学习实战》笔记
均方根误差平均绝对误差 查看详情