用科学计算器怎么按最小二乘法?

用科学计算器怎么按最小二乘法?,第1张

1、shift+ mode;

2、找到STAT;

3、1on;

4、AC;

5、shift+1(stat);

6、5reg;

7、1A——截距;

8、2B——斜率,3R——相关系数。

扩展资料:

计算机有四种状态:Norm、Fix、Eng、Sci,功能分别是:指定指数记号范围、小数点位设置、工程计算、有效数位设置。如果计算器处于其它三种状态则可能会出现运算错误。

Deg是将计算器的角设定为度的状态,共有六种:

Deg—指定度作为预设单位。

Rad—指定弧度作为预设单位。

Gra—指定梯度作为预设单位。也称为“百分度”和“新度”。

用最小二乘法求回归直线方程中的a,b有下面的公式:

最小二乘法:总离差不能用n个离差之和来表示,通常是用离差的平方和,即作为总离差,并使之达到最小,这样回归直线就是所有直线中Q取最小值的那一条,这种使“离差平方和最小”的方法,叫做最小二乘法:

由于绝对值使得计算不变,在实际应用中人们更喜欢用:Q=(y1-bx1-a)²+(y2-bx-a²)+。。。+(yn-bxn-a)²

这样,问题就归结于:当a,b取什么值时Q最小,即到点直线y=bx+a的“整体距离”最小。

扩展资料:


回归分析的最初目的是估计模型的参数以便达到对数据的最佳拟合。在决定一个最佳拟合的不同标准之中,最小二乘法是非常优越的。这种估计可以表示为:

1)样本是在母体之中随机抽取出来的。

2)因变量Y在实直线上是连续的,

3)残差项是独立同分布的,也就是说,残差是独立随机的,且服从高斯分布。

这些假设意味着残差项不依赖自变量的值,所以  和自变量X(预测变量)之间是相互独立的。在这些假设下,建立一个显示线性回归作为条件预期模型的简单线性回归方程,可以表示为:

给一个随机样本  ,一个线性回归模型假设回归子  和回归量  之间的关系是除了X的影响以外,还有其他的变数存在。我们加入一个误差项  (也是一个随机变量)来捕获除了  之外任何对 的影响。

参考资料:

百度百科——线性回归方程

最小二乘法(又称最小平方法)是一种数学优化技术。

它通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。

最小二乘法还可用于曲线拟合。其他一些优化问题也可通过最小化能量或最大化熵用最小二乘法来表达。

原理:

在我们研究两个变量(x,y)之间的相互关系时,通常可以得到一系列成对的数据(x1,y1x2,y2 xm,ym);将这些数据描绘在x -y直角坐标系中,若发现这些点在一条直线附近,可以令这条直线方程如(式1-1)。

 (式1-1)

其中:a0、a1 是任意实数

为建立这直线方程就要确定a0和a1,应用《最小二乘法原理》,将实测值Yi与利用计算值Yj(Yj=a0+a1Xi)(式1-1)的离差(Yi-Yj)的平方和  最小为“优化判据”。

令:φ =  (式1-2)

把(式1-1)代入(式1-2)中得:

φ =  (式1-3)

当  最小时,可用函数 φ 对a0、a1求偏导数,令这两个偏导数等于零。

∑2(a0 + a1Xi - Yi)=0(式1-4)

∑2Xi(a0 +a1Xi - Yi)=0(式1-5)

亦即:na0 + (∑Xi ) a1 = ∑Yi (式1-6)

(∑Xi ) a0 + (∑Xi^2 ) a1 = ∑(XiYi) (式1-7)

得到的两个关于a0、 a1为未知数的两个方程组,解这两个方程组得出:

a0 = (∑Yi) / n - a1(∑Xi) / n (式1-8)

a1 = [n∑(Xi Yi) - (∑Xi ∑Yi)] / (n∑Xi^2 -∑Xi∑Xi)(式1-9)

这时把a0、a1代入(式1-1)中, 此时的(式1-1)就是我们回归的一元线性方程即:数学模型。

在回归过程中,回归的关联式不可能全部通过每个回归数据点(x1,y1 x2,y2xm,ym),为了判断关联式的好坏,可借助相关系数“R”,统计量“F”,剩余标准偏差“S”进行判断;“R”越趋近于 1 越好;“F”的绝对值越大越好;“S”越趋近于 0 越好。

R = [∑XiYi - m (∑Xi / m)(∑Yi / m)]/ SQR{[∑Xi2 - m (∑Xi / m)2][∑Yi2 - m (∑Yi / m)2]} (式1-10)

在(式1-10)中,m为样本容量,即实验次数;Xi、Yi分别为任意一组实验数据X、Y的数值。

以最简单的一元线性模型来解释最小二乘法。

什么是一元线性模型呢?监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。回归分析中,如果只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。

如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。对于二维空间线性是一条直线;对于三维空间线性是一个平面,对于多维空间线性是一个超平面。

最小二乘法公式
∑(X--X平)(Y--Y平)=∑(XY--X平Y--XY平+X平Y平)=∑XY--X平∑Y--Y平∑X+nX平Y平=∑XY--nX平Y平--nX平Y平+nX平Y平=∑XY--nX平Y平
∑(X --X平)^2=∑(X^2--2XX平+X平^2)=∑X^2--2nX平^2+nX平^2=∑X^2--nX平^2
最小二乘法原理
用各个离差的平方和M=∑(i=1到n)[yi-(axi+b)]^2最小来保证每个离差的绝对值都很小。解方程组M/a=0;M/b=0,整理得(∑xi^2)a+(∑xi)b=∑xiyi;(∑xi)a+nb=∑yi。解出a,b。
我们研究两个变量(x, y)之间的相互关系时,通常可以得到一系列成对的数据(x1, y1、x2, y2 xm , ym);将这些数据描绘在x -y直角坐标系中, 若发现这些点在一条直线附近,可以令这条直线方程如(式1-1)。
Y计= a0 + a1 X (式1-1)
其中:a0、a1 是任意实数
为建立这直线方程就要确定a0和a1,应用《最小二乘法原理》,将实测值Yi与利用(式1-1)计算值(Y计=a0+a1X)的离差(Yi-Y计)的平方和〔∑(Yi - Y计)2〕最小为“优化数据”。
令: φ = ∑(Yi - Y计)2 (式1-2)
把(式1-1)代入(式1-2)中得:
φ = ∑(Yi - a0 - a1 Xi)2 (式1-3)
当∑(Yi-Y计)平方最小时,可用函数 φ 对a0、a1求偏导数,令这两个偏导数等于零。
(式1-4)
(式1-5)
亦即:
m a0 + (∑Xi ) a1 = ∑Yi (式1-6)
(∑Xi ) a0 + (∑Xi2 ) a1 = ∑(Xi, Yi) (式1-7)
得到的两个关于a0、 a1为未知数的两个方程组,解这两个方程组得出:
a0 = (∑Yi) / m - a1(∑Xi) / m (式1-8)
a1 = [n∑Xi Yi - (∑Xi ∑Yi)] / [n∑Xi2 - (∑Xi)2 )] (式1-9)
这时把a0、a1代入(式1-1)中, 此时的(式1-1)就是我们回归的元线性方程即:数学模型。
在回归过程中,回归的关联式是不可能全部通过每个回归数据点(x1, y1、 x2, y2xm,ym),为了判断关联式的好坏,可借助相关系数“R”,统计量“F”,剩余标准偏差“S”进行判断;“R”越趋近于 1 越好;“F”的绝对值越大越好;“S”越趋近于 0 越好。
R = [∑XiYi - m (∑Xi / m)(∑Yi / m)]/ SQR{[∑Xi2 - m (∑Xi / m)2][∑Yi2 - m (∑Yi / m)2]} (式1-10) *
在(式1-1)中,m为样本容量,即实验次数;Xi、Yi分别任意一组实验X、Y的数值。
最小二乘法拟合
对给定数据点{(Xi,Yi)}(i=0,1,…,m),在取定的函数类Φ 中,求p(x)∈Φ ,使误差的平方和E^2最小,E^2=∑[p(Xi)-Yi]^2。从几何意义上讲,就是寻求与给定点 {(Xi,Yi)}(i=0,1,…,m)的距离平方和为最小的曲线y=p(x)。函数p(x)称为拟合函数或最小二乘解,求拟合函数p(x)的方法称为曲线拟合的最小二乘法。
最小二乘法的矩阵形式
Ax=b, 其中A为nxk的矩阵,x为kx1的列向量,b为nx1的列向量,n>k。这个方程系统称为Over Determined System,如果n<k,这个系统就是Under Determined System。
正常来看,这个方程是没有解的,但在数值计算领域,我们通常是计算 min ||Ax-b||,解出其中的x。比较直观的做法是求解A'Ax=A'b,但通常比较低效。其中一种常见的解法是对A进行QR分解(A=QR),其中Q是nxk正交矩阵(Orthonormal Matrix),R是kxk上三角矩阵(Upper Triangular Matrix),然后min ||Ax-b|| = min ||QRx-b|| = min ||Rx-Q'b||,用MATLAB命令x=R\(Q'b)可解得x。
最小二乘法的Matlab实现
① 一次函数 使用polyfit(x,y,1)
②多项式函数 使用 polyfit(x,y,n),n为次数
拟合曲线
x=[05,10,15,20,25,30],
y=[175,245,381,480,700,860]。
解:MATLAB程序如下:
x=[05,10,15,20,25,30];
y=[175,245,381,480,700,860];
p=polyfit(x,y,2)
x1=05:005:30;
y1=polyval(p,x1);
plot(x,y,'r',x1,y1,'-b')
计算结果为:
p =05614 08287 11560
即所得多项式为y=05614x^2+008287x+115560
③非线性函数 使用 lsqcurvefit(fun,x0,x,y)


欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/yw/10530910.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-05-09
下一篇2023-05-09

发表评论

登录后才能评论

评论列表(0条)

    保存