概率论与数理统计

事件的概率
1. 概率是什么 1)主观概率
(1)主观概率含义:为根据其经验和知识及利害关系的一种心态或倾向性
(2)主观概率特点:不是在坚实的客观理由基础上为人们所公认;但不能从科学角度简单的全盘否定,(a)该概念有广泛的生活基础;(b)可能反映认识主体的一种倾向性,而有其社会意义;(c)在涉及利益得失的决策中,处于不同地位和掌握情报多少不同的人,对某事件可能性大小要参照这些情况及可能的后果去做衡量
2)试验与事件
(1)试验:人为主动
(2)事件:
a)事件含义:(a)有一个明确界定的试验;(b)这个试验的全部可能结果(不超出某个范围),是在试验前就明确的;(c)对界定试验的全部可能结果中一确定的部 分由明确的陈述
b)基本事件:单一的试验结果
c)事件是对某种情况的陈述
3)古典概率
(1)“等可能”试验结果-->
(2)古典概率的定义:设一个试验有N个等可能的结果,而事件E恰包含其中的M个结果,则事件E的概率,P(E) = M/N
(3)古典概率是“客观”的
(4)古典概率的计算主要基于排列组合
(5)古典概率的局限性:只能用于全部试验结果为有限个,且等可能性成立的情况
4)概率的统计定义(通过实验去估计事件概率)
(1) 实用角度:通过实验去估计时间概率的方法
(2)要点:该试验必须能在同样条件下大量次数重复执行,以便有可能观察该事件的频率
(3)统计定义:当试验次数无限增大时,频率的极限
(4)统计定义意义:提供概率的估计方法;提供一种检验理论正确与否的准则
5)概率的公理化定义
(1)1993年前苏联大数学家柯尔莫哥洛夫实现概率论的公理化
(2)柯氏公理体系:
概率是事件的函数
函数的定义域为抽象的集合,该集合的元素为基本事件
概率值属于[0,1]
由集合所有元素构成事件的概率为1
事件为空集的概率为0
(3)柯氏公理的意义:为一种普遍而严格的数学化概率理论奠定了基础
2. 古典概率计算 1) 排列组合的几个简单公式
古典概率归结为计算两个数M和N,这种计算大多涉及排列组合
(1)n个相异物件取r个的不同排列总数,为n*(n-1)*(n-2)*...*(n-r+1)
(2)n个相异物件取r个的不同组合总数,为n!/(r!*(n-r)!)
(3)与二项式展开的关系:组合系数常称为二项式系数
(4)n个相异物件分成k堆,各堆物件数分别为r1,...rk的分法:n!/(r1! *...*rk!)
3. 事件的运算、条件概率与独立性 1)事件的蕴含、包含和相等
在同一试验下的两事件A和B,如果当A发生时B必发生,则称A蕴含B,或者说B包含A;若A,B互相蕴含,则称A,B两事件相等
2)事件的互斥和对立
互斥:两事件不在同一次试验中发生,则称它们是互斥的。如果一些事件中的任意两个都互斥,则称这些事件是两两互斥的,简称互斥
对立:是互斥事件的一种重要情况,若A为一事件,则B={A不发生}为A的对立事件
3)事件的和(并)
定义一个事件:指出它何时发生,何时不发生
事件的和:设有两事件A,B,则定义事件C={A发生,或B发生}={A,B至少一个发生}为事件A和事件B的和
事件和推广到多个事件的情形
4)概率的加法定理
定理3.1:若干个互斥事件之和的概率,等于各事件的概率之和。柯氏公理体系的第3条
系3.1(定理3.1的推论):事件A的对立事件的概率=1 - 事件A的概率
5)事件的积(交)、事件的差
事件的积:设有两事件A,B,则定义事件C={A,B都发生}为两事件之积
事件的差:事件A和事件B的差 A-B = {A发生,B不发生}
6)条件概率
条件概率定义:在附加一定条件下所计算的概率。附加条件形式可归结为“已知某时间发生了”
无条件概率定义:不加入其他条件或假定所计算出的概率
定义3.1: 设有两事件A,B,而P(B)非0,则“在给定B发生的条件下A的条件概率” P(A|B) = P(AB) / P(B)。。。。。(古典概率模式分析推导)
条件概率的计算:利用定义3.1;直接从加入条件后改变了的情况计算
7)事件的独立性,概率乘法定理
若P(A)=P(A|B),则B的发生与否与A发生的可能性毫无影响,由定义3.1可知P(AB) = P(A)*P(B)
定义3.2(两事件的独立性):两事件若满足上式,则称A,B独立
定理3.2(概率的乘法定理):两独立事件之积的概率等于其各自概率之积
定义3.3(多事件的独立性):设A1,A2,...为有限或无限个事件,如果从其中任意取出有限个Ai1,Ai2,...,Aim都成立P(Ai1Ai2...Aim) = P(Ai1)*P(Ai2)*...*P(Aim),则称事件A1,A2,...相互独立,或独立
多个事件的独立性往往产生于多个试验构成的复合试验中,每个事件只与其中一个试验有关
定理3.3(多个独立事件的乘法定理)
系3.2(独立性定义推论):独立事件的任一部分也独立
系3.3(独立性定义推论):若一系列事件相互独立,则将其中任一部分改为对立事件时,所得事件列仍为相互独立
两两独立:一些事件中任意两个事件都独立,则称它们两两独立
相互独立必推出两两独立,反之不一定对
8)全概率公式与贝叶斯公式
完备时间群
全概率公式:由原因推导结果
贝叶斯公式:在全概率公式的假定之下推导;由结果推导原因
随机变量及其概率分布
1. 一维随机变量 1)随机变量的概念
a)随机变量的定义:“其值随机会而定”的变量,是试验结果的函数
b)随机变量的反面为确定性变量,其取值遵循某种严格的规律的变量;
c)随机事件与随机变量的关系:前者从静态观点来研究随机现象,后者从动态观点
d)随机变量的分类(按其可能取的值的全体的性质):离散型随机变量(只能取有限个值)和连续性随机变量(取值充满某一个区间,数学上抽象的情况)
e)随机变量的研究:取值、取各种值的概率
2)离散型随机变量的分布及其例子
a)离散型随机变量的概率函数:设X为离散型随机变量,其全部可能值为{a1, a2,...},则 Pi = P(X = ai),i=1,2,...成为随机变量的概率函数
pi>=0,p1+p2+... = 1
b)随机变量的分布函数:设X为一随机变量,则函数P(X<=x) = F(x), X在正负无穷区间取值,称为X的分布函数
c)离散型随机变量的概率函数和分布函数的关系:等价,知道其一即可知道另一个
d)随机变量的分布函数的性质:单调非降;x趋于正无穷,分布函数趋于1,x趋于负无穷,分布函数趋于0
e)二项分布:(a)概率分布的公式及推导;(b)服从该分布的条件:各次试验的条件是稳定的;各次试验的独立性
f)波瓦松分布:(a)概率分布的公式及推导;(b)出现场合:表示在一定时间和空间内出现的事件个数
g)二项分布和波瓦松分布的关系:波瓦松分布可作为二项分布的极限而得到,若X服从B(n,p),其中n很大,p很小而np不太大时,则X的分布接近于参数为np的波瓦松分布
h)超几何分布:
i)负二项分布
3)连续性随机变量的分布及其例子
a)连续性随机变量的概率密度函数:设连续型随机变量有概率分布函数,则概率分布函数的导数成为概率密度函数
b)连续型随机变量的概率密度函数的三条基本性质:>=0;在随机变量取值区间上的积分为1;微积分基本定理
c)正态分布
d)指数分布
e)威布尔分布
f)均匀分布
2. 多维随机变量(随机向量) 1)离散型随机向量的分布
a)离散型随机向量的定义:每一个分量都是一维离散型随机变量
b)离散型随机向量的概率函数(概率分布):定义;满足的条件(2条)
c)多项分布M(N; p1,p2,...pn):
2)连续型随机向量的分布
【概率论与数理统计】a)连续型随机向量的定义:
b)连续型随机向量的(概率)密度函数:定义;必须满足条件(2条)
c)均匀分布
d)二维正态分布
e)注意项:(a)有密度函数的随机变量;(b)各分量为一维连续型随机变量的随机向量并不一定是连续型随机变量;(c)可用概率分布函数去描述多维随机向量的概率分布
3)边缘分布
a)边缘分布完全由原分布确定
b)离散型随机向量的边缘分布的计算:多项分布的边缘分布密度
c)连续型随机向量的边缘分布:二维正态分布的边缘分布密度
d)已知某随机向量的分布可推导其任一分量的(边缘)分布;已知某随机向量的各分量的分布,也推导不出该随机向量的分布。因为边缘分布只考虑随机向量的某一分量的情况,未涉及他们之间的关系;而该关系包含的该随机向量的分布中
e)边缘分布也可以不只是单个的
3. 条件概率分布与随机变量的独立性 1)条件概率分布的概念
a)一般形式:设有两个随机变量(向量)X,Y,在给定了Y取某个或某些值的条件下,去求X的条件分布
2)离散型随机变量的条件概率分布
a)条件概率公式推导
b)多项分布的条件分布
3)连续型随机变量的条件分布
a)多件概率公式推导
b)二维正态分布
4)随机变量的独立性
a)随机变量相互独立定义:n维随机向量(X1,...Xn))的联合概率密度函数等于该随机向量各分量的边缘密度函数之积,则称随机变量X1,...,Xn相互独立或简称独立
b) 随机变量独立性定义的另一角度:若X1,...Xn独立,则各变量的概率如何,毫不受其他变量的影响
c)随机变量独立性的两个有用结论
d)离散型随机变量的独立性定义及定理
4. 随机变量的函数的概率分布 1)离散型分布的情况:概率思维;(多项分布、二项分布、波瓦松分布)
2)连续型分布的情况:一般讨论:
a)单变量的情况:
b)多变量的情况:
3)随机变量和的密度函数Y=X1+X2
a)一种方法是根据密度函数的定义直接求解:该方法存在积分号下求导的理论限制;4种形式
b)一种方法是配上另一函数Z,形成(x1,x2)到(Y1,Y2)的一一对应变换,先求(Y1,Y2)联合概率密度f,再求f对于Y1的边缘概率密度
c)正态分布的再生性
d)自由度为n的卡方分布:递推公式;概率密度;输入为1/2和1时的函数值
e)若X1,...Xn相互独立,均服从标准正态分布,则Y=X1*X1+...+Xn*Xn服从自由度为n的卡方分布
f)卡方分布的性质(2条)
4)随机变量商的密度函数
a)随机变量商的密度函数有两种求解方法
b)自由度n的t分布
c)自由度m,n的F分布
d)统计上的三大分布:卡方分布、t分布、F分布;应用性质(3条)
随机变量的数字特征
1.数学期望(均值)与中位数 1)数学期望的定义
a)取有限个值的离散型随机变量的数学期望
b)取无穷个值的离散型随机变量的数学期望
c)连续型随机变量的数学希望
d)特例:离散(波瓦松分布、负二项分布);连续(均匀分布;指数分布;正态分布)
e)数学期望由随机变量的分布完全决定,但在某些问题中,难于决定某些变量的分布如何,但有相当的根据(经验或理论)对期望值提出一些假定甚至有不少的了解;当需要通过观察或试验取得数据已经行估计时,估计随机变量的数字特征要比估计其分布容易且确切
f)在理论和应用中重要原因:本身含义;具备的良好性质
2)数学期望的性质:
a)若干个随机变量值和的期望等于各变量的期望之和:
离散型、连续型证明:数学归纳法、期望定义、边缘概率
应用:二项分布的期望;n双鞋随机分成n堆,“恰好成一双”的那种堆的数目的期望)
b)若干个独立随机变量之积的期望等于各变量的期望之积
c)随机变量的函数的期望
离散型、连续型证明:连续型仅证明g为严格上升并可导的情况,随机变量函数的密度函数,反函数
为计算随机变量X的某一函数g(X)的期望,并不需要先计算g(X)的密度函数,而可以就从X的分布出发
d)统计三大分布的期望
3)条件数学期望(条件均值)
a)条件数学期望的定义
b)意义:反映了随着X取值x的变化,Y的平均变化情况如何
c)在统计学上,常把条件期望E(Y|x)作为x的函数,称为Y对X的“回归函数”,“回归分析”即关于回归函数的统计研究
d)变量Y的(无条件)期望 = Y的无条件期望E(Y|x)对x取加权平均,x的权与变量X在x点的概率密度称比例
e)一个变量的期望,等于其条件期望的期望(离散、连续)
4)中位数
a)定义
b)和数学期望一样,用于刻画一个随机变量X的平均取值的数学特征
c)与数学期望相比的优点:受个别特大或特小值的影响很小;总存在
d)在理论和应用中数学期望重要性超过中位数的原因:均值有很多优良的性质;中位数不唯一且离散型变量中位数不完全符合“中位”含义
2. 方差与钜 1)方差和标准差
a)刻画随机变量在其中心附近散布程度的数字特征之一
b)平均绝对差:刻画随机变量散布度的数字特征之一
c)方差、标准差定义:设X为随机变量,分布为F,则Var(X) = E((X-EX)*(X-EX))称为X(或分布F)的方差,其平方根称为X(或分布F)的标准差
d)方差的性质1:常数的方差为0;若C为常数,则Var(X+C)= Var(X);若C为常数,则Var(CX)= C*C*var(X)
e)方差的性质2:独立随机变量的方差等于各变量的方差之和
2)矩
a)随机变量X关于c(常数)点的k(正整数)阶矩定义
b)X的k阶原点矩
c)X的k阶中心距
d)一阶原点矩为期望;一阶中心距为0;二阶中心距为方差
e)统计学上,高于4阶的钜极少使用
f)三阶中心距:
衡量分布是否有偏:对称为0;大于0为正偏或右偏;小于0为负偏或左偏
偏度系数 = 三阶中心距/标准差的三次方
g)四阶中心距:
衡量分布(密度)在均值附近的陡峭程度如何。越陡峭值越小
峰度系数:= 四阶中心距/标准差四次方;=四阶中心距/(标准差四次方-3)(使正态分布有峰度系数0)
3. 协方差与相关系数 1)意义:多维随机变量的数字特征,反应分量之间的关系
2)协方差(E(X) = m1, E(Y) = m2, Var(X) = a1, Var(Y) = a2)
a)定义:随机变量X和Y的协方差Cov(X,Y) = E((X-m1)*(Y-m2))
b)协方差性质1:与X,Y的次序无关;Cov(c1*X+c2, c3*Y+c4) = c1*c3*Cov(X,Y);Cov(X,Y) = E(X*Y) -m1*m2
c)协方差性质2:若X,Y独立,则Cov(X,Y) = 0;Cov(X,Y)*Cov(X,Y) <= a1*a1*a2*a2,等号当且仅当X,Y之间有严格线性关系时成立
3)相关系数
a)意义:标准尺度下的协方差
b)定义:X,Y的相关系数Corr(X,Y) = Cov(X,Y) / (a1*a1*a2*a2)
c)相关系数性质:若X,Y独立,则Corr(X,Y)=0;abs(Corr(X,Y)) <= 1,等号当且仅当X和Y有严格线性关系时成立
d)不相关和独立间的关系:Corr(X,Y)=0,表示X和Y不相关,X和Y相关不一定独立,但独立一定相关
e)相关系数也称为线性相关系数。若0 f)“线性相关”的最小二乘解释
g)二维正态分布的相关系数特性(2条)
4. 大数定理和中心极限定理 1)大数定理
a)一类重要的极限定理,由“频率收敛于概率”引申而来。“大数”指涉及大量数目的观察值
b)大数定理:利用切比雪夫不等式证明
c)马尔科夫不等式
d)切比雪夫不等式
e)伯努利大数定律
2)中心极限定理
a)一类定理:和的分布收敛于正态分布
b)林德伯格定理(林德伯格-莱维定理):虽则在一般情况很难求出X1+...+Xn的分布的确切形式,但当n很大时,可通过正态分布求其近似值
c)利莫夫-拉普拉斯定理:历史上最早的中心极限定理,是林德伯格定理的特列,1716利莫夫讨论了p=1/2的情况,拉普拉斯将其推广
d)中心极限定理的推广方向:独立不同分布情形;非独立情形;由中心极限定理引起的误差;大偏差问题
参数估计
1. 数理统计学的基本概念 1)什么是数理统计学
a)使用概率论和数学的方法
b)研究怎样收集(通过试验或观察)带有随机误差的数据
c)并在设定的模型(统计模型)之下,对这种数据进行分析(称为统计分析)
d)以对所研究的问题作出推断(统计推断)
e)统计问题:参数估计和假设检验
2)总体
a)定义:与所研究问题有关的对象(个体)的全体所构成的集合。总体随所研究的范围而定
b)统计总体:赋有一定概率分布的总体
c)总体概念的要旨:总体就是一个概率分布
d)两个总体即使其所含个体的性质根本不同,只要有同一的概率分布,则在数理统计学上就视为是同类总体
e)总体分布是一个概率分布族的一员
f)非参数总体:总体分布不能通过若干个参数表达出来
g)有限总体和无限总体
h)统计总体具有抽象形式,该概念具有普遍性
3)样本
a)定义:按一定规则从总体中抽出的一部分个体。所谓“按一定的规定”就是指总体中的每一个个体有同等的被抽出的机会,以及在这个基础上设立的某种附加条件
b)样本大小(样本容量,样本量);X1...Xn全体称为一组样本,Xi称为其中的第i个样本
c)在理论研究中,把样本X1,...Xn看成为一些随机变量
d)独立随机样本:样本X1,...Xn独立同分布,其公共分布就是总体分布
e)在有限总体的情况,单由总体的分布不足以完全决定样本的分布如何,要看抽样的方式
4)统计量
a)定义:完全由样本所决定的量。它不能依赖于总体分布中所含的未知参数
b)样本方差:
c)样本矩:样本原点矩和样本中心距
2. 矩估计、极大似然估计和贝叶斯估计 1)参数的点估计问题
a)参数估计问题的一般提法:设有了从总体中抽出的样本(独立随机样本),要基于这些样本去对参数的未知值作出估计。也可以只要求估计这些参数中的一部分,或估计这些参数的某个已知函数
b)估计量:为上面这样的特定目的而构造的统计量
c)参数估计的研究内容:估计参数;同一参数往往可用若干个看来都合理的方法去估计,需为估计量的优劣制定准则,进而研究在某种准则下寻找最优估计量的问题
d)钜估计和极大似然估计估计总体分布的未知参数时所有信息均来自样本,但贝叶斯估计还要求对该待估参数有先验知识和其先验分布
2)矩估计法
a)K. 皮尔逊在上世纪末到本世纪初的一系列文章中引进的
b)钜估计法的思想:总体分布的钜依赖于总体分布的未知参数,在样本大小较大时,总体分布钜接近于样本原点矩,令两者相等可得到一个方程组,解方程组,将方程组的解作为总体分布未知参数的估计,进而可估计依赖于该未知参数的函数值,这样定出的估计量就叫做钜估计
c)采用钜估计时,并不要求总体分布总有特定的参数形式(凡是被估计对象能直接用钜表达出来时均属该情况):如估计分布的偏度系数和峰度系数,仅需知道其三阶或四阶钜存在就行
d)在总体分布已知有某种参数形式时,总体均值方差也可以有比样本均值和方差更好的估计:如估计二项分布B(N,p)中的p
e)能用低阶钜处理就不用高阶矩
3)极大似然估计法
a)极大似然估计的思想始于高斯的误差理论,到1912年有R.A.费歇尔在一篇论文中把它作为一个一般的估计方法提出来
b)极大似然估计:设总体分布f有k个未知参数,X1,...Xn为从总体中抽出的样本,则似然函数为样本(X1,X2,...Xn)的分布,似然程度取最大值时f中未知参数值取值作为总体分布未知参数的估计值,进而可估计依赖于该未知参数的函数值
c)求取极大似然估计的方法(2种):对数求导;极大似然估计的原始定义
d)极大似然估计要求分布有参数的形式(不同于钜估计)
e)当钜估计和极大似然估计均失效时,可从待估计参数的意义本身出发考虑
4)贝叶斯法
a)贝叶斯法要求:在进行抽样前,对待估的总体分布参数具有先验知识,这种先验知识可用该参数的某种概率分布表达(根据以往的先例和经验或主观认识)
b)利用贝叶斯法进行参数估计:据总体分布求样本联合密度函数;据该密度函数和待估参数的先验分布求参数和样本的联合密度函数;据参数和样本的联合密度函数求样本的边缘密度;据参数和样本的联合密度函数和样本的边缘密度求待估参数的后验密度(条件密度);据此后验密度对待估参数做统计推断
c)贝叶斯学派的一个重要观点:在得出后验分布后,对估计参数的任何统计推断只能基于这个后验分布
d)待估参数的先验分布为“广义先验密度”:该先验密度函数大于0,但积分可不为1
e)贝叶斯原则:“同等无知”原则,在确实没有关于待估参数的先验知识时,对该参数的先验分布的估计策略
3. 点估计的优良性准则 1)概述:
a)同一参数不同估计量比较的难度:待估参数本身未知,因此估计误差无从得知;不同估计量的值都与样本有关
b)考虑估计量优劣,需从整体考虑:估计量的某种特性(无偏性);某种具体的数量指标(均方误差)
c)参数估计学科研究的中心问题:优良性准则和估计量的优劣比较
2)估计量的无偏性
a)无偏估计量的定义
b)估计量的无偏性有两个含义:没有系统性偏差(无偏估计不等于任何时候都给出正确无误的估计);若估计有无偏性,则在大量次数使用取平均时,能以100%的把握无限逼近被估计的量
c)判断一个估计量是否为无偏估计
d)确定非无偏估计量的调整因子,使其变为无偏估计量
3)最小方差无偏估计
a)在众多无偏估计中确定最优估计涉及的问题(2个):为优良性制定一个准则;在已定的准则之下,如何去找到最优者
b)均方误差:均方误差 = 估计量的方差(估计量自身变异的程度) + 估计量的系统误差(无偏估计时该项为0)
c)最小方差无偏估计(MVU估计)
若局限于无偏估计范围,且采用均方误差的原则,则两个无偏估计的比较归结为其方差的比较,方差小着为优
比较两无偏估计的优劣
最小方差无偏估计的定义
d)求MVU估计的一种方法:克拉美-劳不等式
费歇尔信息量
克拉美-劳不等式是瑞典统计学家H.克拉美和印度统计学家C.R.劳在1945-1946各自独立得出
克拉美-劳不等式:证明;应用(先由直观或其他途径找到一个可能是最好的无偏估计,然后计算其方差,看是否达到了克拉美-劳不等式右端的界限,若达到了就是MVU估计)
4)估计量的相合性和渐近正态性
a)相合性:
定义; 按“依概率收敛”术语解释
相合性是对一个估计量的最基本要求
常见的钜估计的相合性都可以基于大数定理得到证明(列子:二阶钜);极大似然估计在很一般的条件下也有相合性
b)渐近正态性:理论上可以证明,不只是和多独有的,许多形状复杂的统计量,当样本大小n趋于无穷时,其分布都渐近于正态分布
c)估计量的相合性和渐近正态性称为估计量的大样本性质:这种性质都是针对样本数量n区域无穷时来谈的,对于固定的n,它们都无意义
d)估计量的无偏概念是小样本性质:针对固定的样本大小
4. 区间估计 1)基本概念
a)先进最流行的一种区间估计理论是原籍波兰的美国统计学家J.奈曼在本世纪30年代建立起来的
b)参数的区间估计的定义:
可靠性:参数要以很大的可能性落在该区间内
精度:估计的精密度要尽可能的高(区间长度尽可能小)
奈曼提出的原则:先保证可靠度,在这个前提下尽可能使精度提高
c)区间估计的置信系数
d)区间的置信水平:置信系数是置信水平中的最大值
e)区间估计理论的主要问题:(奈曼的原则)在保证给定的置信系数下,寻找有优良精度的区间估计
2)枢轴变量法
a)上分位点、下分位点
b)找区间估计的一般方法
3)大样本法
a)利用极限分布,主要是中心极限分布,已建立枢轴变量,近似满足枢轴变量的条件
4)置信界
a)置信上界、置信下界
b)可平移求取区间估计的方法
5)贝叶斯法
假设检验(未完待续)
1. 问题提法和基本概念 1)例子与问题提法
a)假设:一个其正确与否有待通过样本区判断的陈述
b)检验:动词指判断全过程的操作;名词指判断准则
c)接受该假设:“认为假设正确”在统计学上称为接受该假设
d)否定或拒绝该假设:“认为假设不正确”
e)原假设和对立假设
原假设(零假设、解消假设):在假设检验中,常把一个被检验的假设叫做原假设
对立假设(备择假设):原假设的对立面就叫做对立假设(既可以指全体,也可以指一个或一些特殊情况);在抛弃原假设后可供选择的假设
g)检验统计量、接受域、否定域、临界域和临界值
检验统计量:在检验一个假设时所使用的统计量
接受域:使原假设得到接受的那些样本(X1,...Xn)所在的区域A
否定域:使原假设被否定的那些样本(X1,...Xn)所在的区域R
定一个检验等价于指定其接受域或否定域
临界值:当心中明确了用什么统计量时,也可以说“检验的临界值”
h)简单假设和复合假设:
定义:无论是原假设还是对立假设,若其中只含一个参数,则称为简单假设,否则就称为复合假设
要点:在决定一个假设是简单假设还是复合假设时,要考虑到总体分布中的一切参数,而不止是直接出现在假设中的那部分参数
2)功效函数
a)意义:同一个原假设可以有许多检验法,区分优劣的依据,取决于检验的功效函数
b)定义:检验的原假设被否定的概率。
c)应用:同一个原假设的两个检验的优劣,原假设成立时,功效函数应尽量小
3)两类错误、检验的水平
a)两类错误
两类错误:H0正确,但被否定了;H0不正确,但被接受了
犯第一、二类错误的概率
在检验一个假设时,希望两类错误的概率都尽量小是矛盾的。先保证第一类错误的概率不超过某指定值,再在这一限制下,使第二类错误概率尽可能小
b)检验的水平
定义:
若a为检验的水平,而a1>a,则a1也是检验的水平,通常只要可能,就取最小可能的水平作为检验的水平
c)“固定(限制)第一类错误概率的原则”是目前假设检验理论中一种流行的作法
4)一致最优检验
a)假设检验问题H0:H1的一个水平a的一致最优检验定义
b)“一致最优”表示是在一切其第一类错误不超过a的检验中,第二类错误达到最小者
c)一致最优检验存在的条件:总体分布以来一个参数b,原假设H0是b<=b0或H0是b>=b0,且对总体分布形式有一定的限制时;其他稀有的例外
d)奈曼-皮尔逊理论:限制第一类错误概率原则及一致最优检验是J.奈曼和英统计学家E.S.皮尔逊合作,子1928年引进的,基于这些概念所发展的理论,一般称为奈曼-皮尔逊理论
e)最早引进假设检验并对之作出重要贡献的统计学家为K.皮尔逊和R.A.费尔曼.皮尔逊
2. 重要参数检验 3. 拟合优度检验
最后欢迎大家访问我的个人网站: 1024s

    推荐阅读