李宏毅机器学习笔记:1.机器学习介绍(代码片段)

杨鸽说 杨鸽说     2022-12-25     676

关键词:

# Time: 2021.08.23
# 内容:P1~P2

P1: 机器学习介绍

1.1 人工智能、机器学习、深度学习关系

什么是人工智能?

>>人工智能像个函数,我们输入一些东西,它能输出它的判断。

  • 输入一段语音,他知道你说的是how are you;
  • 输入图片,它知道是个猫;
  • 输入棋路,它会下 下一步;
  • 输入hi 它会回答 hello;

三者的关系

人工智能是目标,机器学习是实现的一个方法;深度学习是机器学习中, f f f 比较复杂的那部分方法;

1.2 实现途径

>>人工智能就是要让机器具有一个能力,我们给它资料,它来找到**最佳的 f ∗ f^* f,也叫最佳的模型。从而实现上面的功能。

【方法】

  • 第一个步骤:我们有很多方法 f f f 都可以实现,这个集合叫function set,也叫模型
  • 第二个步骤:我们给它一些训练资料,机器可以根据训练资料判断一个function是好的,还是不好的
  • 第三个步骤:机器自动,通过好的算法,挑出test可能最好的function

  • f 1 f_1 f1好于 f 2 f_2 f2
  • 可能function set里这两张照片非常多的结果都同f1一样,但别的猫照片是但 f 1 f_1 f1可能识别不出来了。换句话说就是f1不一定是最好的 f ∗ f^* f

1.3 实现方法

# 这部分理解的还不是很透彻,后期会补充和修改

>> 监督(supervised)=标签(label),是否有监督,就是输入数据(input)是否有标签,监督学习有标签的学习无监督学习没标签则的学习半监督学习,就是一半(一点点)数据有标签,一半(极其巨大)数据没标签

① 监督学习(supervised learning)

>>训练数据是有标签的,训练目标是能够给测试数据正确标签的。

  • 回归(Regression)

    > label是数值

  • 分类(Classification)

    > label是分类 :二分类和多分类

    二分类:是不是垃圾邮件

    多分类: 文章分类系统

② 无监督学习(Unsupervised learning)

>> 无监督学习常常被用于数据挖掘,用于在大量无标签数据中发现些什么。它的训练数据是无标签的,训练目标是能对观察值进行分类或者区分等。

非监督性学习是只给特征,没有给标签,就是高考前的一些模拟试卷,是没有标准答案的,也就是没有参照是对还是错,但是我们还是可以根据这些问题之间的联系将语文、数学、英语分开。

经典的算法:k-聚类、主成分分析等;

③ 半监督学习

>> 少量有label,大多数无labled的训练模型,两者相结合的一种学习方法;

④ 迁移学习

>> 假设我们要做猫和狗的分类问题,只有少量的有label的data,大量没有label照片,其中很多别的动物照片,那么这些动物对分类有什么帮助,这种 f f f学习过程叫迁移学习。

⑤ 强化学习(reinforcement learning)

我们没有告诉机器正确的答案是什么,机器所拥有的只有一个分数,就是他做的好还是不好。通过不断的训练 它自己不断的调整。

机器跟对手互下,机器会不断的下棋,最后赢了,机器就会知道下的不错,但是究竟是哪里可以使它赢,它其实是不知道的。不断地下棋,有时候会输会调整f,是的f胜率越来越高。

我们知道Alpha Go其实是用监督学习加上reinforcement learning去学习的。先用棋谱做监督学习,然后在做reinforcement learning,但是reinforcement learning需要一个对手,如果使用人当对手就会很让费时间,所以机器的对手是另外一个机器。

1.4 总结

P2: 我们为什么需要学习机器学习

>> 为机器挑选合适的model和loss function。不同的model和loss function适合解决不同的问题。

李宏毅机器学习笔记(2016年的课程):supportvectormachine(svm)(代码片段)

目录1.各种loss函数2.线性SVM3.kernel3.1前言3.2各种kernel3.3kernelVS神经网络1.各种loss函数f=np.arange(-3,3+1e-8,0.001)py=np.array([1.]*len(f))defget_ideal(yf):returnnp.where(yf>=0,0,1)defsquare(yf):retur 查看详情

李宏毅《机器学习》丨1.introductionofthiscourse(机器学习介绍)

Author:AXYZdong李宏毅《机器学习》系列参考视频地址:https://www.bilibili.com/video/BV1Ht411g7Ef参考文档:DataWhale文档文章目录一、人工智能、机器学习和深度学习二、机器学习(MachineLearning)三、机器学习相关的技... 查看详情

李宏毅机器学习机器学习介绍

一.机器学习介绍1.机器学习介绍以前的人工智慧完全是依靠人制定的规则行事,而机器学习相比增加自主学习即自己制定规则的能力。怎么做到呢?就是通过提供给他的资料,学习出来一个function。2.机器学习想关的... 查看详情

组队学习李宏毅的深度学习-1

 一、学习总任务二、完成任务1Task01——机器学习介绍 Part1:任务综述   本任务主要是需要掌握机器学习的基本内容,包括简要历史、相关概念、主要相关技术的介绍。 Part2:主要内容笔记1.人工智慧,机器学... 查看详情

1-4李宏毅2021春季机器学习教程-pytorch教学-助教许湛然(代码片段)

1-3李宏毅2021春季机器学习教程-GoogleColab教学-助教许湛然介绍了Colab的使用,这篇文章是助教许湛然关于PyTorch框架的简要讲解。更多操作查看:https://pytorch.org/docs/stable/tensors.html目录Prerequisites-准备工作WhatisPyTorch?-什么是pytorch?... 查看详情

李宏毅机器学习课程笔记

课程资源B站视频课程网址课程笔记问答整理下面仅记录自己的所得所感第一节Regression从单变量回归引入,再sigmoid/RELU拟合函数从而一步步到深度学习的框架,介绍的非常巧妙。尤其在sigmoid/RELU拟合函数那里,听了之... 查看详情

《2021机器学习-李宏毅》学习笔记

文章目录简介内容示意个人学习笔记01-Regression02.1-deeplearning-general_guidance02.2-deeplearning-类神经网络优化技巧02.3-deeplearning-loss_of_classification03-CNN04-Self-attention05-Transformer06-Generative_Model(GAN)07-Self-S 查看详情

李宏毅《机器学习》丨7.conclusion(总结)

Author:AXYZdong李宏毅《机器学习》系列参考视频地址:https://www.bilibili.com/video/BV1Ht411g7Ef参考文档:DataWhale文档六个Task李宏毅机器学习丨1.Introductionofthiscourse(机器学习介绍)李宏毅机器学习丨2.Regressionÿ 查看详情

李宏毅《机器学习》丨7.conclusion(总结)

Author:AXYZdong李宏毅《机器学习》系列参考视频地址:https://www.bilibili.com/video/BV1Ht411g7Ef参考文档:DataWhale文档六个Task李宏毅机器学习丨1.Introductionofthiscourse(机器学习介绍)李宏毅机器学习丨2.Regressionÿ 查看详情

分类:概率生成模型-李宏毅机器学习笔记

目录1.若用回归模型硬train分类任务2.二分类任务2.1 概率生成模型3.数学上的形式1.若用回归模型硬train分类任务如图,class2的标签是-1(红色的点),class1的标签是1(蓝色的点),横纵坐标是特征值。... 查看详情

《深度学习》李宏毅--task1机器学习介绍

机器学习介绍   机器学习(MachineLearning),就是让机器自动找函数。如语音识别,就是让机器找一个函数,输入是声音信号,输出是对应的文字。如下棋,就是让机器找一个函数,输入是当前棋... 查看详情

李宏毅2020机器学习深度学习笔记1+2&&深度学习基础与实践课程笔记2

机器学习:研究如何从观测数据(observations)中寻找“规律”(skill),这些规律可以在未知数据上的表现有所改进。目的:使用“高质量”的训练数据,构建“合适”的模型,以“更佳地”完成任务。本质:让... 查看详情

李宏毅机器学习笔记(2016年的课程):supportvectormachine(svm)(代码片段)

目录1.各种loss函数2.线性SVM3.kernel3.1前言3.2各种kernel3.3kernelVS神经网络1.各种loss函数f=np.arange(-3,3+1e-8,0.001)py=np.array([1.]*len(f))defget_ideal(yf):returnnp.where(yf>=0,0,1)defsquare(yf):returnnp.square(yf-1.)defsigmoid(x):return1./(1+np.exp(-x))de... 查看详情

可解释机器学习(explainable/interpretablemachinelearning)的原理和应用(李宏毅视频课笔记)

文章目录0前言1IntroductionofExplainable/InterpretableML1.1WhyweneedExplainableML?1.2Interpretablev.s.Powerful2LocalExplanation2.1IntroductionofLocalExplanation2.1.1RemovingWay2.1.2ModifyingWay2.1.3Limitatio 查看详情

学习笔记李宏毅2021春机器学习课程第5.1节:transformer

文章目录1序列到序列的模型2Seq2seqmodel常见的应用场景2.1聊天机器人2.2问题回答(QA)2.3文法剖析2.4多标签分类2.5对象检测3Seq2seqmodel的整体架构4编码器的具体架构1序列到序列的模型Transformer本质上就是一个Sequence-to-sequence的model࿰... 查看详情

学习笔记李宏毅2021春机器学习课程第7.2节:自监督学习

文章目录1为什么BERT有用?2多语言的BERT2.1跨语言的阅读理解2.2跨语言对齐1为什么BERT有用?最常见的解释是,当输入一串文本时,每个文本都有一个对应的向量。对于这个向量,我们称之为embedding。它的特别之处在于... 查看详情

李宏毅2020机器学习深度学习笔记2

实验中:learningrate调太大太小都不好,应该先生成loss函数然后观察一会儿再让他跑着 实际优化:因为我们希望在离target远的时候大步走,越靠近target越慢,因此我们可以用\\eta^t进一步,我们知道learningrat... 查看详情

李宏毅机器学习深度学习介绍与反向传播机制

BatchandMomentumReview:OptimizationwithBatch上次我们有讲说,我们实际上在算微分的时候,并不是真的对所有Data算出来的L作微分,你是把所有的Data分成一个一个的Batch,有的人是叫MiniBatch,那我这边叫做Batch,其实指的是一样的东西,助教投... 查看详情