Hello,大家好,我是Tony:
欢迎访问我的个人主页:Tony’s blog,让我们一起站在巨人的肩膀上。

上一张男神的照片,该笔记配合Andrew Ng课程Maching Learning 课时7-1至7-4
对于过拟合的建议
1、减少特征的数量
这里要说明一点对于一类数据,它的拟合数据为:
y=θ0+θ1∗x1+θ2∗x12+θ3∗x13+...+θn∗x1n
这里描述的拟合曲线只是一个特征x1!
y=θ0+θ1∗x1+θ2∗x12+θ3∗x13+...+θn∗x1n+θ0′+θ1′∗x2+θ2′∗x22+θ3′∗x23+...+θn′∗x2n+θ0′′+θ1′′∗x3+θ2′′∗x32+θ3′′∗x33+...+θn′′∗x3n
这里描述的拟合曲线是个3特征x1、x2、x3!
2.正则化
对于过拟合的具体做法
λj=1∑nθj2
J(θ)=2m1[i=1∑m(hθ(x(i))−y(i))2+λj=1∑nθj2]
lambda 是正则化参数
1、线性回归正则化的具体做法:
i.梯度下降算法
Repeat:
{
Before:
θ0:=θ0−αm1i=1∑m(hθ(x(i))−y(i))x0(i)
Later:

θj:=θj(1−αmλ)−αm1i=1∑m(hθ(x(i))−y(i))xj(i)
}
ii.正则化方程算法

2、逻辑回归正则化的具体做法
Before
J(θ)=−[m1i=1∑my(i)loghθ(x(i))+(1−y(i))log(1−hθ(x(i)))]
====>>

i.梯度下降算法
Repeat
{
Before:
θj:=θj−αm1i=1∑m(hθ(x(i))−y(i))x0(i)
Later:

}
ii.高级优化
function [jVal,gradient]=costFunction(theta)
