
个人建议不要一次性放这么多个自变量在模型中,自变量太多了会有影响,造成大家都不显著的!在一元中f与t是等价的,在多元中,通过t检验的一定能通过f,反之不行。t的检验是对回归参数的显著性,f是对整个回归关系的显著性。
回归分析就是要找出一个数学模型Y=f(X),使得从X估计Y可以用一个函数式去计算。当Y=f(X)的形式是一个直线方程时,称为一元线性回归。这个方程一般可表示为Y=A+BX。根据最小平方法或其他方法,可以从样本数据确定常数项A与回归系数B的值。
A、B确定后,有一个X的观测值,就可得到一个Y的估计值。回归方程是否可靠,估计的误差有多大,都还应经过显著性检验和误差计算。有无显著的相关关系以及样本的大小等等,是影响回归方程可靠性的因素。
t检验常能用作检验回归方程中各个参数的显著性,而f检验则能用作检验整个回归关系的显著性。各解释变量联合起来对被解释变量有显著的线性关系,并不意味着每一个解释变量分别对被解释变量有显著的线性关系。
两者结果间的差异有5次以上是由抽样误差造成的,则“无效假设”成立,可认为两组间的差异为不显著,常记为p>005。
若两者结果间的差异5次以下是由抽样误差造成的,则“无效假设”不成立,可认为两组间的差异为显著,常记为p≤005。如果p≤001,则认为两组间的差异为非常显著。
扩展资料:
显著性检验的基本原理是提出“无效假设”和检验“无效假设”成立的几率(P)水平的选择。所谓“无效假设”,就是当比较实验处理组与对照组的结果时,假设两组结果间差异不显著,即实验处理对结果没有影响或无效。
经统计学分析后,如发现两组间差异是抽样引起的,则“无效假设”成立,可认为这种差异为不显著(即实验处理无效)。若两组间差异不是由抽样引起的,则“无效假设”不成立,可认为这种差异是显著的(即实验处理有效)。
参考资料来源:百度百科-显著性检验
F检验用来分析用了超过一个参数的统计模型,以判断该模型中的全部或一部分参数是否适合用来估计母体。t检验推论差异发生的概率,从而比较两个平均数的差异是否显著。
F检验对于数据的正态性非常敏感,因此在检验方差齐性的时候,Levene检验,
Bartlett检验或者Brown–Forsythe检验的稳健性都要优于F检验。
F检验还可以用于三组或者多组之间的均值比较,但是如果被检验的数据无法满足均是正态分布的条件时,该数据的稳健型会大打折扣,特别是当显著性水平比较低时。但是,如果数据符合正态分布,而且alpha值至少为005,该检验的稳健型还是相当可靠的。
若两个母体有相同的方差(方差齐性),那么可以采用F检验,但是该检验会呈现极端的非稳健性和非常态性,可以用t检验、巴特勒特检验等取代。
扩展资料
回归分析是对具有因果关系的影响因素(自变量)和预测对象(因变量)所进行的数理统计分析处理。只有当自变量与因变量确实存在某种关系时,建立的回归方程才有意义。
因此,作为自变量的因素与作为因变量的预测对象是否有关,相关程度如何,以及判断这种相关程度的把握性多大,就成为进行回归分析必须要解决的问题。进行相关分析,一般要求出相关关系,以相关系数的大小来判断自变量和因变量的相关的程度。
回归预测模型是否可用于实际预测,取决于对回归预测模型的检验和对预测误差的计算。回归方程只有通过各种检验,且预测误差较小,才能将回归方程作为预测模型进行预测。
正确应用回归分析预测时应注意:
①用定性分析判断现象之间的依存关系;
②避免回归预测的任意外推;
③应用合适的数据资料。
参考资料来源:百度百科-回归分析
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)