论文部分内容阅读
线性模型是数理统计学中发展比较早的分支之一,是一类很重要的统计模型,在经济、生物、医药等领域有着相当广泛的应用。关于它的参数估计问题的研究可以追溯到十九世纪初。最小二乘估计(LSE)是最基本、最常见的估计,高斯一直被公认为是LSE的发明者。后来,A.A.Markov于1900年证明了LSE的方差最小性质,即著名的Gauss - Markov定理,奠定了LSE在参数估计理论中的地位。然而,随着统计学在近代历史的迅速发展,我们所熟知的LSE在很多情况下并不是一个好的估计,这也使得参数估计领域得到蓬勃发展。为了能在一些特定的情况对相应参数做出更准确、更精确的估计,统计学者们给出了一系列的估计:岭估计、广义岭估计、贝叶斯估计、Jame-Stein压缩估计、Liu估计等等。
不同方法的出现就必然会引出优劣比较问题,相应的也就出现了一些比较不同估计的判别准则,如:均方误差准则、广义均方误差准则以及 pitman准则等。本文就目前较为常用的估计在以上的判别准则下进行比较得出了一些新的结果。 论文第二章,在广义均方误差准则下比较了James - Stein估计和岭估计的优良性,又提出了生长曲线模型中参数岭估计的一种改进方法,并将提出的新估计与已有的岭估计作了比较。
论文第三章,给出了pitman准则下岭估计、广义岭估计、贝叶斯估计、James-Stein估计以及Liu估计之间的一些优良陛比较的相应结果。 文中最后一部分,改进了以有的范数类Kantorovich不等式的结果,并且将其应用到线性模型相对效率的下界的界定中。