论文部分内容阅读
摘 要: 本文归纳和总结了概率论课程中随机事件和随机变量的独立性的概念和性质.
关键词: 概率论 随机变量 独立性
在概率论课程中,独立性是一个非常重要的概念,在教学过程中它既是重点又是难点.现对概率论中出现的独立性问题做总结和归纳.
1.事件的独立性
设A,B是两个事件,一般而言P(A)≠P(A|B),这表示事件的发生对事件的发生的概率有影响,只有当P(A)=P(A|B)时,才可以认为B的发生与否对A的发生毫无影响,这时就称A,B两个事件是独立的.
定义1[1]:如果P(AB)=P(A)P(B)成立,则称事件A与B相互独立,简称A与B独立.
在实际问题中,我们一般不用定义判断两个事件A,B是否相互独立,而是相反,从试验的具体条件及试验的具体本质分析判断它们有无关联,是否独立.如果独立,就可以用定义中的公式来计算积事件的概率.
定义2[1]:设有n个事件A,A,…,A,如果对任意k(1 P(AA…A)=P(A)P(A)…P(A) (1)
则称此n个事件A,A,…,A相互独立.
三个事件相互独立不仅是两两独立的,而且满足三三独立.
注:(1)A与B互不相容和相互独立的关系.
若AB=?准,则称A与B互不相容,互不相容是说明两个事件没有相同的样本点.而独立是说明两个事件的发生互不影响.所以它们是两个不同的概念,但它们之间也有一定的联系,如例1.
例1:若P(A)>0,P(B)>0,则有:(1)当A与B相互独立时,则有A与B相容,即AB≠?准.(2)当A与B互不相容时,有A与B不相互独立.
解:(1)由A与B相互独立和P(A)>0,P(B)>0,有P(AB)=P(A)P(B)>0,故AB≠?准,即A与B相容.
(2)由A与B互不相容和P(A)>0,P(B)>0,有P(AB)=0≠P(A)P(B),故P(AB)≠P(A)P(B),即A与B不独立.
由上例得到,若P(A)>0,P(B)>0,则A与B相互独立与A,B互不相容不能同时成立.但是若去掉P(A)>0,P(B)>0这个条件,则存在这样的事件,它们互不相容而且相互独立,如不可能事件与任何事件互不相容,而且与任何事件相互独立.
(2)由定义可知必然事件和不可能事件与任何事件都是相互独立的.
(3)判断两事件A,B 的独立性通常是根据它们的实际意义看彼此是否有影响进行判断的.但不能用经验判断时,就必须用独立的定义判断.
(4)对于三个事件A,B,C两两独立,但不一定三个事件相互独立.
例2:随机投掷编号为 1 与 2 的两个骰子设A表示1号骰子向上一面出现奇数;A表示2号骰子向上一面出现奇数;A表示两骰子出现的点数之和为奇数,则有P(A)=P(A)=P(A)=1/2;对任意的1≤i (5) 若四对事件 中有一对是相互独立的,则另外三对也是相互独立的.对于这条性质的直观理解也是容易的:如果A与B相互独立,则A的发生不影响B的发生,那么A的发生也不会影响B的不发生,A的不发生也不会影响B的发生,A的不发生也不会影响B的不发生.
2.随机变量的独立性
在多维随机变量中,各分量的取值有时会相互影响,但有时会毫无影响.譬如一个的身高X和体重Y就会相互影响,但与收入Z一般无影响.当两个随机变量的取值互不影响时,就称它们是相互独立的.
定义3[1]:设n维随机变量的联合分布函数为FF的边际分布函数,如果对于任意n个实数x,有
则称X相互独立.
类似随机事件的独立性,随机变量相互独立说明,各个随机变量的取值不会相互影响,或者说随机变量之间没有任何关系.
注:(1)不相关与相互独立的关系.二维随机变量(X,Y),当Cov(X,Y)=0时,称X与Y不相关.这时可能由两类情况导致:一类是X与Y的取值毫无关联;一类是X与Y间存在某种非线性关系,譬如平方关系、对数关系等.而相互独立说明两个随机变量没有任何关系.因此若X与Y独立,则X与Y不相关;若X与Y不相关,则不能得到X与Y相互独立.这个性质表明:“不相关”是比“独立”更弱的一个概念.
例3:设随机变量X服从区间(0.5,0.5)上的均匀分布,Y=cosX,试证X与Y不相关.
证:由于随机变量X,Y有函数关系Y=cosX,则显然X与Y不独立.因为E(X)=0,所以Cov(X,Y)=E(XY)=0,即X与Y不相关,而且X与Y不独立.
这个例子表明,“独立”必导致“不相关”,而“不相关”不一定导致“独立”.独立要求严,不相关要求宽.因为独立性是用分布定义的,二不相关只是用矩定义的.另外可以看出,关于数学期望的性质中:若X与Y相互独立,则有E(XY)=E(X)E(Y),可以将条件“相互独立”降弱为“不相关”.
(2)对于二维正态分布N,不相关与相互独立是等价.即对于二维正态分布(X,Y),若ρ=0,则随机变量X,Y不相关,而且相互独立;若ρ≠0,则随机变量X,Y相关,不相互独立.
(3)设二维随机变量(X,Y)的联合密度函数为p(x,y),X与Y相互独立的充分必要条件是p(x,y)可分离变量,即p(x,y)=h(x)g(y),而且h(x)与边际密度函数p(x)相差一个常数因子k,g(y)与边际密度函数p(y)相差一个常数因子k,并且.应用这条性质可以更方便地判断两个随机变量独立性.
(4)利用独立随机变量的可加性,可以方便地计算随机变量和的分布.如:二项分布,泊松分布,正态分布,伽马分布,卡方分布.这些分布都具有可加性.
(5)注意利用独立同分布随机变量和的性质,如独立同分布的两点分布的和为二项分布,n个相互独立同分布的标准正态变量的平方和是服从自由度为n的卡方分布,利用这样的性质可以更简便地推导二项分布和卡方分布的一些性质,如数学期望和方差等.
(6)独立随机变量和的特征函数为每个随机变量的特征函数的乘积.特征函数是计算随机变量函数的分布的有利工具,如果随机变量还满足相互独立的条件,则更简化了计算随机变量函数分布的计算.
参考文献:
[1]茆诗松,程依明,濮晓龙.概率论与数理统计[M].北京:高等教育出版社,2005.
[2]严士健,刘秀芳.测度与概率[M].北京:北京师范大学出版社,2009.
[3]薛昌兴. 实变函数与泛函分[M].北京:高等教育出版社,2004.
关键词: 概率论 随机变量 独立性
在概率论课程中,独立性是一个非常重要的概念,在教学过程中它既是重点又是难点.现对概率论中出现的独立性问题做总结和归纳.
1.事件的独立性
设A,B是两个事件,一般而言P(A)≠P(A|B),这表示事件的发生对事件的发生的概率有影响,只有当P(A)=P(A|B)时,才可以认为B的发生与否对A的发生毫无影响,这时就称A,B两个事件是独立的.
定义1[1]:如果P(AB)=P(A)P(B)成立,则称事件A与B相互独立,简称A与B独立.
在实际问题中,我们一般不用定义判断两个事件A,B是否相互独立,而是相反,从试验的具体条件及试验的具体本质分析判断它们有无关联,是否独立.如果独立,就可以用定义中的公式来计算积事件的概率.
定义2[1]:设有n个事件A,A,…,A,如果对任意k(1
则称此n个事件A,A,…,A相互独立.
三个事件相互独立不仅是两两独立的,而且满足三三独立.
注:(1)A与B互不相容和相互独立的关系.
若AB=?准,则称A与B互不相容,互不相容是说明两个事件没有相同的样本点.而独立是说明两个事件的发生互不影响.所以它们是两个不同的概念,但它们之间也有一定的联系,如例1.
例1:若P(A)>0,P(B)>0,则有:(1)当A与B相互独立时,则有A与B相容,即AB≠?准.(2)当A与B互不相容时,有A与B不相互独立.
解:(1)由A与B相互独立和P(A)>0,P(B)>0,有P(AB)=P(A)P(B)>0,故AB≠?准,即A与B相容.
(2)由A与B互不相容和P(A)>0,P(B)>0,有P(AB)=0≠P(A)P(B),故P(AB)≠P(A)P(B),即A与B不独立.
由上例得到,若P(A)>0,P(B)>0,则A与B相互独立与A,B互不相容不能同时成立.但是若去掉P(A)>0,P(B)>0这个条件,则存在这样的事件,它们互不相容而且相互独立,如不可能事件与任何事件互不相容,而且与任何事件相互独立.
(2)由定义可知必然事件和不可能事件与任何事件都是相互独立的.
(3)判断两事件A,B 的独立性通常是根据它们的实际意义看彼此是否有影响进行判断的.但不能用经验判断时,就必须用独立的定义判断.
(4)对于三个事件A,B,C两两独立,但不一定三个事件相互独立.
例2:随机投掷编号为 1 与 2 的两个骰子设A表示1号骰子向上一面出现奇数;A表示2号骰子向上一面出现奇数;A表示两骰子出现的点数之和为奇数,则有P(A)=P(A)=P(A)=1/2;对任意的1≤i
2.随机变量的独立性
在多维随机变量中,各分量的取值有时会相互影响,但有时会毫无影响.譬如一个的身高X和体重Y就会相互影响,但与收入Z一般无影响.当两个随机变量的取值互不影响时,就称它们是相互独立的.
定义3[1]:设n维随机变量的联合分布函数为FF的边际分布函数,如果对于任意n个实数x,有
则称X相互独立.
类似随机事件的独立性,随机变量相互独立说明,各个随机变量的取值不会相互影响,或者说随机变量之间没有任何关系.
注:(1)不相关与相互独立的关系.二维随机变量(X,Y),当Cov(X,Y)=0时,称X与Y不相关.这时可能由两类情况导致:一类是X与Y的取值毫无关联;一类是X与Y间存在某种非线性关系,譬如平方关系、对数关系等.而相互独立说明两个随机变量没有任何关系.因此若X与Y独立,则X与Y不相关;若X与Y不相关,则不能得到X与Y相互独立.这个性质表明:“不相关”是比“独立”更弱的一个概念.
例3:设随机变量X服从区间(0.5,0.5)上的均匀分布,Y=cosX,试证X与Y不相关.
证:由于随机变量X,Y有函数关系Y=cosX,则显然X与Y不独立.因为E(X)=0,所以Cov(X,Y)=E(XY)=0,即X与Y不相关,而且X与Y不独立.
这个例子表明,“独立”必导致“不相关”,而“不相关”不一定导致“独立”.独立要求严,不相关要求宽.因为独立性是用分布定义的,二不相关只是用矩定义的.另外可以看出,关于数学期望的性质中:若X与Y相互独立,则有E(XY)=E(X)E(Y),可以将条件“相互独立”降弱为“不相关”.
(2)对于二维正态分布N,不相关与相互独立是等价.即对于二维正态分布(X,Y),若ρ=0,则随机变量X,Y不相关,而且相互独立;若ρ≠0,则随机变量X,Y相关,不相互独立.
(3)设二维随机变量(X,Y)的联合密度函数为p(x,y),X与Y相互独立的充分必要条件是p(x,y)可分离变量,即p(x,y)=h(x)g(y),而且h(x)与边际密度函数p(x)相差一个常数因子k,g(y)与边际密度函数p(y)相差一个常数因子k,并且.应用这条性质可以更方便地判断两个随机变量独立性.
(4)利用独立随机变量的可加性,可以方便地计算随机变量和的分布.如:二项分布,泊松分布,正态分布,伽马分布,卡方分布.这些分布都具有可加性.
(5)注意利用独立同分布随机变量和的性质,如独立同分布的两点分布的和为二项分布,n个相互独立同分布的标准正态变量的平方和是服从自由度为n的卡方分布,利用这样的性质可以更简便地推导二项分布和卡方分布的一些性质,如数学期望和方差等.
(6)独立随机变量和的特征函数为每个随机变量的特征函数的乘积.特征函数是计算随机变量函数的分布的有利工具,如果随机变量还满足相互独立的条件,则更简化了计算随机变量函数分布的计算.
参考文献:
[1]茆诗松,程依明,濮晓龙.概率论与数理统计[M].北京:高等教育出版社,2005.
[2]严士健,刘秀芳.测度与概率[M].北京:北京师范大学出版社,2009.
[3]薛昌兴. 实变函数与泛函分[M].北京:高等教育出版社,2004.