跟着吴恩达老师学习机器学习的第七天-logistic回归的假设函数math表达式+决策界限+代价函数+简化代价函数和logistic回归方程的梯度下降+用逻辑回归解决多类别分类问题

Bessie_Lee Bessie_Lee     2022-12-23     757

关键词:


课程6.2

logistic回归的假设函数math表达式

1、logistic回归的假设函数表达式的math公式

图片1:logistic回归的假设函数表达式的math公式

理解1:logistic回归的假设函数表达式的math公式


2、logistic回归的假设函数表达式使用

图片2:logistic回归的假设函数表达式使用
理解2:logistic回归的假设函数表达式使用


课程6.3

决策界限

1、回顾公式

图片1:回顾公式

理解1:回顾公式


2、决策边界

图片2:决策边界

理解2:决策边界


3、各种各样的决策边界

图片3:各种各样的决策边界

理解3:各种各样的决策边界


课程6.4

代价函数

1、logistic回归方程画出non - convex函数

图片1:logistic回归方程画出non - convex函数
理解1:logistic回归方程画出non - convex函数


2、Cost函数图形

图片2:Cost函数图形(y=0和y=1)


理解2:Cost函数图形(y=0和y=1)


课程6.5

简化代价函数和logistic回归方程的梯度下降

1、logistic回归模型的代价函数

图片1:logistic回归模型的代价函数理解1:logistic回归模型的代价函数


2、logistic回归方程的梯度下降与线性回归的梯度下降算法区别

图片2:logistic回归方程的梯度下降与线性回归的梯度下降算法区别

理解2:logistic回归方程的梯度下降与线性回归的梯度下降算法区别


课程6.6

用octave实现更高级的优化算法共轭梯度算法(没有详细解释以及说明)

由于我没有详细学习octave,并且可能近段时间不会使用octave去做项目,所以下面只贴附视频中的代码图片,不做详细的解释与说明 - 具体说明链接在此

图片1:

图片2:


课程6.7

用逻辑回归解决多类别分类问题

1、解释什么是一对多(不做文字说明)

图片1:解释什么是一对多(不做文字说明)


2、一对多方法

图片2:一对多方法


理解2:一对多方法


今天晚上搞的有点晚,但是发现一个问题,一下午+一晚上也才搞了大概8个视频,希望明天可以多一点吧,因为任务其实挺紧张的!加油!

吴恩达2022机器学习课程评测来了!

大家好!我是louwill。吴恩达老师2022年机器学习专项课(MachineLearningSpecialization)上周全新来袭,课程本身并不是新课,与10年前的机器学习专项课相比,编程语言用Python代替了此前的Octave,主要定位于... 查看详情

机器学习爱好者--翻译吴恩达老师的机器学习课程字幕http://www.ai-start.com/

 机器学习爱好者--翻译吴恩达老师的机器学习课程字幕   http://www.ai-start.com/https://zhuanlan.zhihu.com/fengdu78https://github.com/fengdu78/Coursera-ML-AndrewNg-Notes 文档PDF  https://github.com/fengdu78/Coursera-ML-AndrewNg-Notes/blob/maste... 查看详情

机器学习-吴恩达andrewngcoursera学习总结合集,编程作业技巧合集

...learn/machine-learning/home/welcome课程总结机器学习MachineLearning-吴恩达AndrewNg第1~5课总结机器学习MachineLearning-吴恩达AndrewNg第6~10课总结机器学 查看详情

吴恩达机器学习笔记(代码片段)

文章目录ErroranalysisMethodstosolveoverfittingMethodstosolveunderfittingRecommendapproachErrormetricsforskewedclassesDataformachinelearningSupportVectorMachineK-meansPrincipleComponentAnalysisDatapreproce 查看详情

吴恩达机器学习学习笔记——代价函数

单变量线性回归函数 hθ(x)=θ0+θ1x为了使线性回归函数对数据有较好的预测性,即y到h(x)的距离都很小。  查看详情

吴恩达“机器学习”——学习笔记二

定义一些名词欠拟合(underfitting):数据中的某些成分未被捕获到,比如拟合结果是二次函数,结果才只拟合出了一次函数。过拟合(overfitting):使用过量的特征集合,使模型过于复杂。参数学习算法(parametriclearningalgorithms)... 查看详情

吴恩达的机器学习,属实牛逼

吴恩达属实牛逼大家好哇,新同学都叫我张北海,老同学都叫我老胡,其实是一个人,只是我特别喜欢章北海这个《三体》中的人物,张是错别字。最近在coursera上重温了吴恩达升级版的《机器学习》课程,当时还写了一个刷课... 查看详情

吴恩达《机器学习系列课程》学习笔记

...f0c;结果最后,B站反而更像中国的YouTube。在B站上看到吴恩达的《机器学习系列课程》,看了看发现挺有意思,就梳理一下在此形成学习笔记。第一节:前言机器学习早已成为我们的日常。每当使用Google或Bing等搜... 查看详情

吴恩达机器学习随笔什么是机器学习?(代码片段)

定义   TomMitchell对机器学习定义为“计算机从经验E中学习,解决某一任务T,进行某一度量P,通过P测定在T上的表现因经验E而提高”。定义个人觉得大体理解即可,如果扣文咬字去理解会十分痛苦,就不做过多解释了。原文:... 查看详情

机器学习-吴恩达-正规方程多变量回归公式

矩阵的迹    A为nXn的矩阵     查看详情

花了2晚,拿到了吴恩达@斯坦福大学的机器学习课程证书

花了2个晚上,拿到了吴恩达@斯坦福大学的机器学习课程证书警告⚠️⚠️⚠️请认真阅读此文,操作不慎可能血亏真金白银吴恩达算是我的精神导师了,很早之前就是看他的视频入门机器学习。他的经典课程《机器学习》2012年... 查看详情

吴恩达“机器学习”——学习笔记八

偏差方差权衡(biasvariancetradeoff)偏差:如果说一个模型欠拟合,也可以说它的偏差很大。方差:如果说一个模型过拟合,也可以说它的方差很大。训练误差经验风险最小化(ERM)选择参数,使得训练误差最小化,即假设类H:所有假设... 查看详情

吴恩达2014机器学习教程笔记目录

...重实践,结合起来学习事半功倍。但是论经典,还是首推吴恩达的机器学习课程。吴大大14年在coursera的课程通俗易懂、短小精悍,在讲解知识点的同时,还会穿插相关领域的最新动态,并向你推荐相关论文。课程10周共18节课,... 查看详情

吴恩达机器学习笔记(代码片段)

文章目录ErroranalysisMethodstosolveoverfittingMethodstosolveunderfittingRecommendapproachErrormetricsforskewedclassesDataformachinelearningSupportVectorMachineK-meansPrincipleComponentAnalysisDatapreprocessingChoosingthenumberofprincipalcomponentsApplicationof`PCA`AnomalydetectionExample... 查看详情

coursera-andrewng(吴恩达)机器学习笔记——第一周

一.初识机器学习何为机器学习?Acomputerprogramissaidtolearn fromexperienceEwithrespecttosometaskT andsomeperformancemeasureP,ifits performanceonT,asmeasuredbyP,improves withexperienceE.理解:通过实验E,完 查看详情

吴恩达机器学习学习笔记——1.3机器学习的定义

1ArthurSamuel(1959):在没有明确编程的情况下使计算机获得学习的能力,该领域的研究为机器学习。2TomMitchell(1998):如果一个计算机程序解决任务T的性能达到了P,那么就说它从经验E中学习去解决任务T,并且达到了性能P。比... 查看详情

吴恩达预热新课!万字回顾机器学习!

  新智元报道  吴恩达最近发布了一篇博客,介绍了几个基础算法的起源和直观理解,还宣传了一下自己重置版机器学习课程:目的竟是为了复习一遍!最近吴恩达在博客网站上发表了一篇特刊,表示自己由... 查看详情

吴恩达预热新课!万字回顾机器学习!

  新智元报道  吴恩达最近发布了一篇博客,介绍了几个基础算法的起源和直观理解,还宣传了一下自己重置版机器学习课程:目的竟是为了复习一遍!最近吴恩达在博客网站上发表了一篇特刊,表示自己由... 查看详情