[未答复] 线性回归中使用Batch梯度下降法为什么要要分别求代价函数等于0和等于1时的截距和斜率?

[复制链接]
qiuhuizuo 发表于 2022-1-14 21:45:18
本帖最后由 qiuhuizuo 于 2022-1-15 14:46 编辑

请看下图,函数h是假设的目标函数(一元线性函数,θ0是截距,θ1是斜率),函数j(θ0,θ1)是代价函数。线性回归本身是求代价函数的最小值时对应的目标函数θ0和θ1。下图红框部分为什么要分别求代价函数j=0时的j对θ0的偏导数和j=1时j对θ1的偏导数呢?关键j=0或j=1是代价函数的局部最小值么?而且从等号右侧也看不出这是在j=0和j=1时得到的表达式有什么区别?可能的极值点不应该是代价函数偏导数为零的点么?为什么要加上j=0或j=1这样的前提条件呢?
3.jpg


下方是老师andrew ng讲解时给出的理由


4.jpg
5.jpg
6.jpg
7.jpg
8.jpg



1 条回复


qiuhuizuo 发表于 7 天前
别人告诉我了,答案如下:

红框中是小写的j  不是大写的J ,小写的j是θ的下标。我把大写J和小写j搞混了
您需要登录后才可以回帖 登录 | 注册

本版积分规则

相关帖子
相关文章
热门教程
站长推荐
快速回复 返回顶部 返回列表