基本概念
-
随机试验
- 可以在相同的条件下重复进行.
- 每次实验的结果可能不止一个,且能事先明确所有结果.
- 进行一次试验之前不能确定哪一个结果会出现.
-
样本空间
随机试验所有可能结果的集合
-
基本事件
由一个样本点组成的单点集
-
必然事件
每次试验中都必然发生的事件(S事件)
-
不可能事件
每次试验中都不可能发生的事件,也就是一个空集
事件的关系与运算
-
包含
$A \subset B$,表示A发生B必然发生
-
和事件
$A \cup B$,表示A与B至少有一个发生
-
积事件
$A \cap B$或$AB$,表示A与B同时发生
// …existing code…
运算律
- 交换律: $A\cup B=B\cup A$
- 结合律: $(A\cup B)\cup C = A\cup (B\cup C)$
- 分配律: $(A\cup B)\cap C = (A\cap C)\cup (B\cap C)$
- 德摩根定律:
- $\overline{A \cup B} = \overline{A} \cap \overline{B}$
- $\overline{A \cap B} = \overline{A} \cup \overline{B}$
概率的定义与性质
-
古典概型概率: $P(A) = A$ 包含的基本事件数/S中基本事件的总数.
这个S,是所有事件的总数
-
几何概型概率: $P(A)=A$ 的几何度量/S的几何度量
-
统计概率$P(A)= \lim_{n \to \infty}(nA/n)$, nA为A发生的总数
-
公理化定义: 基于一组公理来定义概率,这也就是现代概率论的基础.
- 对于任意事件$A,P(A)\geq 0$
- $P(A)=1$ 表示这个事件是一定会发生
- 对于互不相容的事件序列$A_1,A_2,…$,有: $P(A_1 \cup A_2 \cup …) = P(A_1) + P(A_2) + …$
概率的类型
- 古典概率: 当样本空间是有限的且所有基本事件发生的可能性相等时,事件 A 的概率定义为 A 包含的基本事件数与样本空间中基本事件总数的比值。
$$P(A)\approx\frac{事件A包含的基本事件数}{样本空间的基本是将总数}$$
- 经验概率: 通过大量的重复试验,事件A发生的概率趋于一个稳定值,将这个稳定值作为事件A的概率估计.
$$P(A)\approx\frac{事件A发生的次数}{重复试验的总次数}$$
独立事件
核心概率:
如果两件事情的发生互不影响,那么它们就是独立事件.也就是说,一个事件的发生或不发生并不会改变另一个事件发生的概率.
正式的定义:
对于两个事件 A 和 B,如果满足以下任一条件(这些条件是等价的,只要其中一个成立,其他也成立),则称 A 和 B 是独立事件:
- 联合概率的乘积: $$P(A\cap B)=P(A)P(B)$$ 这是独立事件最常用的定义,也是最普遍适用的定义.即使这个$P(A)=0$或者$P(B)=0$也是适用的.
联合概率
联合概率其实就是指两个或多个事件同时发生的概率.对于两个事件A和B,它们的联合概率记为$P(A\cap B)$或P(A,B).$A\cap B$表示就是事件A与B的发生交集.
- 核心思想:
与单个事件的概率$P(A)$(只关心A是否发生)或B是否发生不同,联合概率关心的是A和B两个条件是否同时满足.
- “统计"的含义与联合概率
当提到"联合统计"时,它通常有两种含义:
$$P(A\cap B)\approx\frac{事件A和事件B同时发生的次数} {总试验或观察的次数}$$
- 通过统计数据估计联合概率: 这也是最常见的做法.在实际的应用中,我们往往无法得知事件的真实概率,而是通过收集大量数据(统计数据),计算两个事件同时发生的频率来估算它们的联合概率.
这种方法其实就是基于大数定律的经验公式.
- 联合概率分布的概率: 对于随机变量,我们讨论它们的联合概率分布.这描述了两个或多个随机变量同时取特定值或落在特定范围内的概率。在统计学中,我们经常从样本数据来推断或描述这种联合分布.