关键词:
具体原理网址:http://wenku.baidu.com/link?url=zSDn1fRKXlfafc_tbofxw1mTaY0LgtH4GWHqs5rl8w2l5I4GF35PmiO43Cnz3YeFrrkGsXgnFmqoKGGaCrylnBgx4cZC3vymiRYvC4d3DF3
自组织特征映射神经网络(Self-Organizing Feature Map。也称Kohonen映射),简称为SMO网络,主要用于解决模式识别类的问题。SMO网络属于无监督学习算法,与之前的Kmeans算法类似。所不同的是,SMO网络不需要预先提供聚类的数量,类别的数量是由网络自动识别出来的。
基本思想:将距离小的集合划分为同一类别,而将距离大的个体集合划分为不同的类别。
6.4.1 SMO网络框架
SMO网络比较简单,只有输入层和输出层。
SMO网络的输出层比较有特点,与其他神经网络有所不同的是,它与同层的神经元之间建立侧向连接,并可通过权值的学习形成特定的模式。输出层排列成棋盘的形状。输出层的神经元可以形成多种形式,不同的形式可以映射出不同的模式,如一维线阵、二维平面阵和三维的栅格等。对于二维的训练数据,排列一般是二维平面阵。
实现步骤:
1.输入层网络
输入层网络节点和数据集同行数、同列数,但数据集要归一化。
2.输出网络
一般根据数据集的维度来构建输出网络。例如二维的情况,希望分为4类,输出层可设计为4*2的矩阵
3.权重节点
根据输入层的数据集的维度和输出层的预估分类数,定义权重节点的维度。例如,数据集是二维的,权重的行数就定为2,分4类,权重列数就选4.权重值一般给定一个0~1之间的随机值。
4.定义学习率
学习率会影响收敛的速度,可以定义一个动态的学习函数,随着迭代的次数增加而收敛。本例中的学习函数为:
式中,maxLrate为最大学习率,minLrate为最小学习率,MaxIteration为最大迭代次数,i为当前迭代次数。
5.定义聚类半径函数
学习半径影响聚类的效果。可以定义一个动态的收缩半径函数,随着迭代次数的增加而收缩,本例中定义的半径函数:
数、式中,maxR为最大聚类半径,minR为最小聚类半径,MaxItertion为最大的迭代次数,i为当前迭代的次数。
6.聚类的过程:
- 接受输入:首先计算本次迭代的学习率和学习半径,并且从训练集中随机选取一个样本
- 寻找获胜节点:计算数据集中其他样本与此样本的距离,从中找到点积最小的获胜节点
- 计算优胜邻域:根据这两个节点计算出聚类的邻域,并找出此邻域中所有节点。
- 调整权值:根据学习率、样本数据调整权重。
- 根据计算的结果,为数据集分配类别标签。
- 评估结果:SMO网络属于无监督聚类,输出的结果就是聚类后的标签,如果训练集已经被分类好了,即具有分类标签,那么通过新旧标签的比较就可以反映聚类结果的准确度。
6.4.2 SOM类
初始构造方法:
class Kohonen(object): def __init__(self): self.lratemax = 0.8 #最大学习率--欧式距离 self.lratemin = 0.05 #最小学习率--欧式距离 self.rmax = 5.0 #最大聚类半径--根据数据集 self.rmin = 0.5 #最小聚类半径--根据数据集 self.Steps = 1000 #迭代次数 self.lratelist = [] #学习率收敛曲线 self.rlist = [] #学习半径收敛曲线 self.w = [] #权重向量组 self.M = 2 #M*N聚类的总数 self.N = 2 #M/N表示邻域的参数 self.dataMat = [] #外部导入数据集 self.classLabel = [] #聚类后的类别标签
6.4.3 功能函数
(1)数据归一化
def normlize(self,dataMat): #数据标准化归一化 [m,n] = shape(dataMat) for i in xrange(n-1): dataMat[:,i] = (dataMat[:,i]-mean(dataMat[:,i]))/(std(dataMat[:,i])+1.0e-10) return dataMat
(2)计算欧氏距离:
def distEclud(vecA,vecB): #欧式距离 eps = 1.0e-6 return linalg.norm(vecA-vecB) + eps
(3)加载数据文件
def loadDataSet(self,filename): #加载数据集 numFeat = len(open(filename).readline().split('\t'))-1 fr = open(filename) for line in fr.readlines(): lineArr = [] curLine = line.strip().split('\t') lineArr.append(float(curLine[0])) lineArr.append(float(curLine[1])) self.dataMat.append(lineArr) self.dataMat = mat(self.dataMat)
(4)初始化第二层网格
#coding:utf-8 from numpy import * class Kohonen(object): def __init__(self): self.lratemax = 0.8 #最大学习率--欧式距离 self.lratemin = 0.05 #最小学习率--欧式距离 self.rmax = 5.0 #最大聚类半径--根据数据集 self.rmin = 0.5 #最小聚类半径--根据数据集 self.Steps = 1000 #迭代次数 self.lratelist = [] #学习率收敛曲线 self.rlist = [] #学习半径收敛曲线 self.w = [] #权重向量组 self.M = 2 #M*N聚类的总数 self.N = 2 #M/N表示邻域的参数 self.dataMat = [] #外部导入数据集 self.classLabel = [] #聚类后的类别标签 def ratecalc(self,i): #学习率和半径 Learn_rate = self.lratemax-((i+1.0)*(self.lratemax-self.lratemin))/self.Steps R_rate = self.rmax-((i+1.0)*(self.rmax-self.rmin))/self.Steps return Learn_rate,R_rate def normlize(self,dataMat): #数据标准化归一化 [m,n] = shape(dataMat) for i in xrange(n-1): dataMat[:,i] = (dataMat[:,i]-mean(dataMat[:,i]))/(std(dataMat[:,i])+1.0e-10) return dataMat def distEclud(self,vecA,vecB): #欧式距离 eps = 1.0e-6 data = vecA-vecB data = linalg.norm(vecA-vecB) + eps return linalg.norm(vecA-vecB) + eps def loadDataSet(self,filename): #加载数据集 numFeat = len(open(filename).readline().split('\t'))-1 fr = open(filename) for line in fr.readlines(): lineArr = [] curLine = line.strip().split(' ') lineArr.append(float(curLine[0])) lineArr.append(float(curLine[1])) self.dataMat.append(lineArr) self.dataMat = mat(self.dataMat) def init_grid(self): k = 0 #构建第二层网络模型 grid = mat(zeros((self.M*self.N,2))) for i in xrange(self.M): for j in xrange(self.N): grid[k,:] = [i,j] k += 1 return grid def train(self): dm,dn = shape(self.dataMat) #1.构建输入网络 normDataset = self.normlize(self.dataMat) #归一化数据 grid = self.init_grid() #初始化第二层分类器 self.w = random.rand(self.M*self.N,dn)#3.随机初始化两层之间的权重值 # distM = self.distEclud #确定距离公式 #4.迭代求解 if self.Steps < 5*dm: self.Steps = 5*dm #设定最小迭代次数 for i in xrange(self.Steps): lrate,r = self.ratecalc(i) #1)计算当前迭代次数下的学习率和分类半径 self.lratelist.append(lrate) self.rlist.append(r) #2)随机生成样本索引,并抽取一个样本 k = random.randint(0,dm) mySample = normDataset[k,:] #3)计算最优节点:返回最小距离的索引值 minIndx =[self.distEclud (mySample,i) for i in self.w] minIndx = minIndx.index(min(minIndx)) # self.w[minIndx,:] = self.w[minIndx,:]+lrate*(mySample[0]-self.w[minIndx,:]) #4)计算邻域 d1 = ceil(minIndx/self.M) #计算此节点在第二层矩阵中的位置 d2 = mod(minIndx,self.M) distMat = [self.distEclud(mat([d1,d2]),i) for i in grid] nodelindx = (array(distMat) < r).nonzero() for j in xrange (shape(self.w)[1]): #5)按列更新权重 if sum(nodelindx == j): self.w[:,j] = self.w[:,j]+lrate*(mySample[0]-self.w[:,j]) #主循环结束 self.classLabel = range(dm) #分配和存储聚类后的类别标签 for i in xrange(dm): self.classLabel[i] = distM(normDataset[i,:],self.w).argmin() self.classLabel = mat(self.classLabel) SMOnet = Kohonen() SMOnet.loadDataSet('testSet2.txt') SMOnet.train()
资料来源:郑捷《机器学习算法原理与编程实践》 仅供学习研究
郑捷《机器学习算法原理与编程实践》学习笔记(第四章推荐系统原理)kmeans
(上接第二章) 4.3.1KMeans算法流程 算法的过程如下: (1)从N个数据文档随机选取K个文档作为质心 (2)对剩余的每个文档测量其到每个质心的距离,并把它归到最近的质心的类 (3)重新计算已经得到的各... 查看详情
郑捷《机器学习算法原理与编程实践》学习笔记(第七章预测技术与哲学)7.3岭回归
7.3岭回归7.3.1验证多重共线性7.3.2岭回归理论7.3.3岭际分析7.3.4k值的判断7.3.5辅助函数 (1)导入多维数据集:加载数据集defloadDataSet(filename):numFeat=len(open(filename).readline().split(‘ ‘))-1#getnumberoffieldsdataMat=[]labelMat=[]fr=ope 查看详情
郑捷《机器学习算法原理与编程实践》学习笔记(第七章预测技术与哲学)7.1线性系统的预测
7.1.1回归与现代预测 7.1.2最小二乘法 7.1.3代码实现(1)导入数据defloadDataSet(self,filename):#加载数据集X=[];Y=[]fr=open(filename)forlineinfr.readlines():curLine=line.strip().split(‘ ‘)X.append(float(curLine[0]) 查看详情
郑捷《机器学习算法原理与编程实践》学习笔记(第二章中文文本分类—朴素贝叶斯算法)
(上接第二章) 2.3分类算法:朴素贝叶斯 2.3.1贝叶斯公式推导(略) 分类的流程: 第一阶段:训练数据生成训练样本集:TF-IDF 第二阶段:对每个类别计算p(yi)。 第三个阶段:对每个特征属性计算... 查看详情
郑捷《机器学习算法原理与编程实践》学习笔记(第三章决策树的发展)_scikit-learn与回归树
(上接第三章) 3.4Scikit-Learn与回归树 3.4.1回归算法原理 在预测中,CART使用最小剩余方差(squaredResidualsMinimization)来判断回归时的最优划分,这个准则期望划分之后的子树与样本点的误差方差最小。这样决策... 查看详情
机器学习之逐次下降法(机器学习算法原理与实践)郑捷
逐次下降法的定义:对于给定的方程组,使用公式: 其中k为迭代次数(k=0,1,2,…) 逐步代入求近似解的方法称为迭代法如果存在(记为),称此迭代法收敛,显然就是方程组的解,否则称此迭代法发散。研究的收敛... 查看详情
《机器学习算法原理与编程实践》学习笔记
(上接第一章)1.2对象、矩阵与矢量化编程1.2.1对象与维度(略)1.2.2初识矩阵(略)1.2.3矢量化编程与GPU运算(略)1.2.4理解数学公式与NumPy矩阵运算1.矩阵的初始化#coding:utf-8importnumpyasnp#导入NumPy包#创建3*5的全0矩阵和全1的矩阵my... 查看详情
《机器学习算法原理与编程实践》学习笔记
(上接第一章)1.2.5Linalg线性代数库 在矩阵的基本运算基础之上,NumPy的Linalg库可以满足大多数的线性代数运算。 .矩阵的行列式 .矩阵的逆 .矩阵的对称 .矩阵的秩 .可逆矩阵求解线性方程1.矩阵的行列式In[4... 查看详情
机器学习算法原理与编程实践之朴素贝叶斯分类
在介绍朴素贝叶斯分类之前,首先介绍一下大家都比较了解的贝叶斯定理,即已知某条件概率,如何得到两个时间交换后的概率,也就是在已知P(A|B)的情况下如何求得P(B|A)?可以通过如下公式求得:而朴素贝叶斯分类是一种简单... 查看详情
常用机器学习算法knn原理与实践
推荐两篇讲解与实践KNN比较好博客,感谢原作者总结http://blog.csdn.net/u012162613/article/details/41768407http://www.cnblogs.com/ybjourney/p/4702562.html 查看详情
机器学习-西瓜书南瓜书第六章
支持向量机支持向量机(SupportVectorMachine),简称SVM,是一种经典的二分类模型,属于监督学习算法。一、间隔与支持向量支持向量机的目标是确定一个对样本的分类结果最鲁棒的线性分类器,即找到一个... 查看详情
深度学习笔记
...ticsinmoid):将线性函数的输出压缩进区间(0,1)。逻辑回归机器学习算法与Python实践之(七)逻辑回归(LogisticRegression)Coursera公开课笔记:斯坦福大学机器学习第六课“逻辑回归(LogisticRegression)” 支持向量机(supportvectormachine... 查看详情
机器学习算法与编程实践之中文文本分类
这周学习了机器学习算法与编程实践第二章——中文文本分类的部分内容。该章以文本挖掘为大背景,以文本分类算法为中心,详细介绍了中文文本分类项目的相关知识点。一、文本挖掘与文本分类的概念被普遍认可的文本挖掘... 查看详情
深度学习bible学习笔记:第六章深度前馈网络
第四章数值计算(numericalcalculation)和第五章机器学习基础下去自己看。 一、深度前馈网络(DeepFeedfarwardNetwork,DFN)概要:DFN:深度前馈网络,或前馈神经网络(FFN)/多层感知机(MLP)目标:近似模拟某函数f y=f(x;θ) ... 查看详情
《深度卷积神经网络原理与实践》笔记第一章机器学习基础
...记(Version:1.0.2)整理作者:sq_csl第一章机器学习基础1.1机器学习概述1.1.1概念概念ML(MachineLearning)是一门发展了比较长时间的学科,其在发展过程中定义也发生了一些变化早期概念源于TomMit 查看详情
第六章---机器学习与数据建模
学习:通过接收到的数据,归纳提取相同与不同机器学习: 让计算机以数据为基础,进行归纳与总结模型:数据解释现象的系统机器学习:1.监督学习(机器学习的过程有标注:相当于告诉模型,在什么样的数据特征下应该... 查看详情
机器学习笔记_prml_adaboost算法的原理与推导
转自:http://blog.csdn.net/v_july_v/article/details/40718799 Adaboost算法的原理与推导 1Adaboost的原理1.1Adaboost是什么 AdaBoost,是英文"AdaptiveBoosting"(自适应增强)的缩写,由YoavFreund和Robert 查看详情
[java学习笔记]java核心技术卷1第六章接口与内部类
第6章接口与内部类6.1接口一个类可以实现一个或多个接口,并在需要接口的地方,随时使用实现了相应接口的对象。在接口声明中,方法自动public,可以不写修饰符。在实现接口时必须把方法声明为public。一个接口中可以包含... 查看详情