coursera机器学习week11笔记

starry starry     2022-10-14     397

关键词:

Application example:Photo OCR

Problem description and pipeline

图像文字识别应用所作的事是,从一张给定的图片中识别文字。这比从一份扫描文档中识别文字要复杂的多。

 

为了完成这样的工作,需要采取如下步骤:
1. 文字侦测(Text detection)——将图片上的文字与其他环境对象分离开来
2. 字符切分(Character segmentation)——将文字分割成一个个单一的字符
3. 字符分类(Character classification)——确定每一个字符是什么 可以用任务流程图来表

达这个问题,每一项任务可以由一个单独的小队来负责解决:

Sliding windows

  滑动窗口是一项用来从图像中抽取对象的技术。假使我们需要在一张图片中识别行人,首先要做的是用许多固定尺寸的图片来训练一个能够准确识别行人的模型。然后我们用之前训练识别行人的模型时所采用的图片尺寸在我们要进行行 人识别的图片上进行剪裁,然后将剪裁得到的切片交给模型,让模型判断是否为行人,然后在图片上滑动剪裁区域重新进行剪裁,将新剪裁的切片也交给模型进行判断,如此循环直至将图片全部检测完。
  一旦完成后,我们按比例放大剪裁的区域,再以新的尺寸对图片进行剪裁,将新剪裁的切片按比例缩小至模型所采纳的尺寸,交给模型进行判断,如此循环。

以上便是文字侦测阶段。 下一步是训练一个模型来完成将文字分割成一个个字符的任务,需要的训练集由单个字符的图片和两个相连字符之间的图片来训练模型。

 

GeIng lots of data:Artificial data synthesis

  以我们的文字识别应用为例,我们可以字体网站下载各种字体,然后利用这些不同的字体配上各种不同的随机背景图片创造出一些用于训练的实例,这让我们能够获得一个无限大的训练集。这是从零开始创造实例。
  另一种方法是,利用已有的数据,然后对其进行修改,例如将已有的字符图片进行一些扭曲、旋转、模糊处理。只要我们认为实际数据有可能和经过这样处理后的数据类似,我们便可以用这样的方法来创造大量的数据。

 

有关获得更多数据的几种方法:
1. 人工数据合成
2. 手动收集、标记数据
3. 众包

Ceiling analysis: What part of the pipeline to work on next

  在机器学习的应用中,我们通常需要通过几个步骤才能进行最终的预测,我们如何能够知道哪一部分最值得我们花时间和精力去改善呢?这个问题可以通过上限分析来回答。回到我们的文字识别应用中,我们的流程图如下:

  流程图中每一部分的输出都是下一部分的输入,上限分析中,我们选取一部分,手工提供 100%正确的输出结果,然后看应用的整体效果提升了多少。假使我们的例子中总体效果为 72%的正确率。
  如果我们令文字侦测部分输出的结果 100%正确,发现系统的总体效果从 72%提高到了 89%。这意味着我们很可能会希望投入时间精力来提高我们的文字侦测部分。
  接着我们手动选择数据,让字符切分输出的结果 100%正确,发现系统的总体效果只提升了 1%,这意味着,我们的字符切分部分可能已经足够好了。
  最后我们手工选择数据,让字符分类输出的结果 100%正确,系统的总体效果又提升了 10%,这意味着我们可能也会应该投入更多的时间和精力来提高应用的总体表现。

 


coursera机器学习week11单元测试

Application:PhotoOCR选B选D选AC选A选AB 查看详情

coursera机器学习week8笔记

ClusteringUnsupervisedlearningintroduction什么是非监督学习呢?在一个典型的监督学习中,我们有一个有标签的训练集,我们的目标是找到能够区分正样本和负样本的决策边界,在这里的监督学习中,我们有一系列标签,我们需要据此拟... 查看详情

coursera机器学习week10笔记

LargescalemachinelearningLearningwithlargedatasets如果我们有一个低方差的模型,增加数据集的规模可以帮助你获得更好的结果。我们应该怎样应对一个有100万条记录的训练集? 以线性回归模型为例,每一次梯度下降迭代,我们都需要... 查看详情

coursera机器学习week7笔记

SupportVectorMachines(支持向量机)Optimizationobjective与逻辑回归和神经网络相比,支持向量机,或者简称SVM。在学习复杂的非线性方程时提供了一种更为清晰,更加强大的方式。这是逻辑回归里的,右边是S型激励函数,我们用z表示&... 查看详情

coursera机器学习week9笔记

Anomalydetection(异常检测)Problemmotivation给定数据集,先假设它们都是正常的,如果有一新的数据,想知道是不是异常,即这个测试数据不属于该组数据的几率如何。在上图中,在蓝色圈内的数据属于该组数据的可能性较高,而越是... 查看详情

coursera机器学习week4笔记

NeuralNetworks: RepresentationNon-linearhypotheses我们之前学到的,无论是线性回归还是逻辑回归都有一个缺点,当特征太多时,计算负荷会非常的大。如下:只有x1和x2,但运用多次项进行预测时,我们的方程可以很好的预测。使用非... 查看详情

吴恩达-coursera-机器学习-week6

十、应用机器学习的建议(AdviceforApplyingMachineLearning)10.1决定下一步做什么10.2评估一个假设10.3模型选择和交叉验证集10.4诊断偏差和方差10.5正则化和偏差/方差10.6学习曲线10.7决定下一步做什么十一、机器学习系统的设计(MachineLearnin... 查看详情

coursera课程《machinelearning》学习笔记(week1)

这是Coursera上比较火的一门机器学习课程,主讲教师为AndrewNg。在自己看神经网络的过程中也的确发现自己有基础不牢、一些基本概念没搞清楚的问题,因此想借这门课程来个查漏补缺。目前的计划是先看到神经网络结束,后面... 查看详情

machinelearning|andrewng|coursera吴恩达机器学习笔记

Week1:MachineLearning: AcomputerprogramissaidtolearnfromexperienceEwithrespecttosomeclassoftasksTandperformancemeasureP,ifitsperformanceattasksinT,asmeasuredbyP,improveswithexperienceE. Supe 查看详情

原coursera—andrewng机器学习—week11习题—photoocr

【1】机器学习管道【2】滑动窗口Answer:C((200-20)/4)2=2025【3】人工数据【4】标记数据Answer:B(10000-1000)*10/(8*60*60)=3.125【5】上限分析测验 Answer:D忽略窗口的宽度,只考虑step:    (1000/2)*(1000/2)*2=500000Answer:B... 查看详情

coursera机器学习week10单元测试

LargeScaleMachineLearning选B选CD选CD选AC不确定  查看详情

coursera课程《machinelearning》学习笔记(week1)

这是Coursera上比较火的一门机器学习课程,主讲教师为AndrewNg。在自己看神经网络的过程中也的确发现自己有基础不牢、一些基本概念没搞清楚的问题,因此想借这门课程来个查漏补缺。目前的计划是先看到神经网络结束&... 查看详情

coursera机器学习week9单元测试

week9|| AnomalyDetection找出异常数据,选CD需要减小,选B选C 选CD选AWeek9|| RecommenderSystems选AD选BD选A选AC选AB 查看详情

吴恩达-coursera-机器学习-week10

十七、大规模机器学习(LargeScaleMachineLearning)17.1大型数据集的学习17.2随机梯度下降法17.3小批量梯度下降17.4随机梯度下降收敛17.5在线学习17.6映射化简和数据并行十八、应用实例:图片文字识别(ApplicationExample:PhotoOCR)18.1问题描述和... 查看详情

coursera机器学习week6单元测试

Week6|| AdviceforApplyingMachineLearning高方差,选B出现过拟合问题,选BD出现欠拟合问题,选BC选AC 一般用622来分,随机打乱数据是很有必要的。  选择BDA、出现高偏差,增加训练数据会增加测试误差C、明显错的week6|| ... 查看详情

吴恩达-coursera-机器学习-week1

一、引言(Introduction)1.1欢迎1.2机器学习是什么?1.3监督学习1.4无监督学习二、单变量线性回归(LinearRegressionwithOneVariable)2.1模型表示2.2代价函数2.3代价函数的直观理解I2.4代价函数的直观理解II2.5梯度下降2.6梯度下降的直观理解2.7梯... 查看详情

coursera机器学习week7单元测试

SupportVectorMachines欠拟合,增大C,减小δ2,所以选C选D安全因子,选BC欠拟合问题,选ABC,减少训练数据更会欠拟合D,逻辑回归是凸函数,不存在局部最小选CDA错误B应该训练K个  查看详情

coursera机器学习week9编程作业

estimateGaussian.mmu=1/m*sum(X);sigma2=1/m*sum((X-repmat(mu,m,1)).^2);selectThreshold.mpredictions=(pval<epsilon);fp=sum((predictions==1)&(yval==0));fn=sum((predictions==0)&(yval==1));tp=su 查看详情