通信原理
绪论
- 基带信号: 基本频带信号, 是指未经过调制的信号, 包含低频和直流
- 频带信号: 经过载波调制之后的信号
- 调制器: 频谱搬移, 调制原始的基带信号为已调信号
- 解调器: 已调还原为基带信号
两种编/译码器
- 信源: 提升安全性和有效性
- 信道: 提升可靠性和效率
调制: 使编码后的信号特性和信道的特性相适应, 减小天线尺寸, 使信号通过信道顺利传输
信息及其度量
定义
信息量 I(x) 是一个事件 x 发生时所提供的信息量, 用来度量信息的多少
$$ I(x) = log_a [\frac{1}{P(x)}] $$
x
以2
为底, 当a=2
时, 信息量的单位是比特(bit), 当a=e
时, 信息量的单位是纳特(nat), 当a=10
时, 信息量的单位是哈特(hart)
a 单位 2 bit e nat 10 hart
若采用$M$进制的波形传递$M$个消息之一(概率一致), 则信息量为 $$ I = log_2 [\frac{1}{{1}/{M}}] = log_2 M $$
当$M=2$时, 信息量为$1$比特
显然
一串信息的信息量
$$ I = - \sum_{i=1}^{n} n_i \cdot log_2 [P(x_i)] $$
其中:
- $n_i$ 是第$i$个事件发生的次数
- $P(x_i)$ 是第$i$个事件发生的概率
信息熵
$$ H = - \sum_{i=1}^{n} P(x_i) \cdot log_2 [P(x_i)] $$
相当于上面的公式取了平均, 因为: $\frac{n_i}{\sum n} = P(x_i)$
所以有: $ H = \hat I = \frac {I}{\sum n}$
数个数的方式得出的信息熵被称为: 算数平均
公式求得的信息熵被称为: 统计平均如果同样去算会有差别存在, 这是因为统计的样本数量只有趋近无穷时, 才能得到准确的信息熵
也就是说, 统计平均更准确
最大熵定理
在离散信源中, 信息熵的最大值是$H_{max} = log_2 M$
也即等概率的情况下, 信息熵最大
有效性指标
-
码元传输速率: 每秒传输的码元数记为$R_B = \frac 1 {T_s}$, 单位是波特(Baud = Symbol/s)
码元速率与进制数无关, 仅与传输一个符号的时间间隔$T_s$有关
-
信息传输速率: 每秒钟传送的信息量, 记为$R_b = R_B \cdot H$, 单位是比特每秒(bit/s)
-
频带利用率: 单位频带内的传输速率$\eta_B = \frac{R_B}{B}$, 单位 $Baud/Hz$ 其中$B$是信道的带宽, 单位是赫兹(Hz)
比的是相同带宽下的传输速率(性价比)
-
误码率/误信率: 错误/丢失的信息量占总信息量的比例
-
符号数量之比记为$P_e$, 称为误码率
-
码元比特之比记为$P_b$, 称为误比特率
两者关系: $P_e = 1 - (1 - P_b)^n$, 其中$n$是码元的位数
-