通信原理


绪论

  • 基带信号: 基本频带信号, 是指未经过调制的信号, 包含低频和直流
  • 频带信号: 经过载波调制之后的信号
  • 调制器: 频谱搬移, 调制原始的基带信号为已调信号
  • 解调器: 已调还原为基带信号

两种编/译码器

  • 信源: 提升安全性和有效性
  • 信道: 提升可靠性和效率

调制: 使编码后的信号特性和信道的特性相适应, 减小天线尺寸, 使信号通过信道顺利传输

信息及其度量

定义

信息量 I(x) 是一个事件 x 发生时所提供的信息量, 用来度量信息的多少

$$ I(x) = log_a [\frac{1}{P(x)}] $$

x2为底, 当a=2时, 信息量的单位是比特(bit), 当a=e时, 信息量的单位是纳特(nat), 当a=10时, 信息量的单位是哈特(hart)

a 单位
2 bit
e nat
10 hart

若采用$M$进制的波形传递$M$个消息之一(概率一致), 则信息量为 $$ I = log_2 [\frac{1}{{1}/{M}}] = log_2 M $$

当$M=2$时, 信息量为$1$比特
显然

一串信息的信息量

$$ I = - \sum_{i=1}^{n} n_i \cdot log_2 [P(x_i)] $$

其中:

  • $n_i$ 是第$i$个事件发生的次数
  • $P(x_i)$ 是第$i$个事件发生的概率

信息熵

$$ H = - \sum_{i=1}^{n} P(x_i) \cdot log_2 [P(x_i)] $$

相当于上面的公式取了平均, 因为: $\frac{n_i}{\sum n} = P(x_i)$
所以有: $ H = \hat I = \frac {I}{\sum n}$

数个数的方式得出的信息熵被称为: 算数平均
公式求得的信息熵被称为: 统计平均

如果同样去算会有差别存在, 这是因为统计的样本数量只有趋近无穷时, 才能得到准确的信息熵
也就是说, 统计平均更准确

最大熵定理

在离散信源中, 信息熵的最大值是$H_{max} = log_2 M$
也即等概率的情况下, 信息熵最大

有效性指标

  • 码元传输速率: 每秒传输的码元数记为$R_B = \frac 1 {T_s}$, 单位是波特(Baud = Symbol/s)

    码元速率与进制数无关, 仅与传输一个符号的时间间隔$T_s$有关

  • 信息传输速率: 每秒钟传送的信息量, 记为$R_b = R_B \cdot H$, 单位是比特每秒(bit/s)

  • 频带利用率: 单位频带内的传输速率$\eta_B = \frac{R_B}{B}$, 单位 $Baud/Hz$ 其中$B$是信道的带宽, 单位是赫兹(Hz)

    比的是相同带宽下的传输速率(性价比)

  • 误码率/误信率: 错误/丢失的信息量占总信息量的比例

    • 符号数量之比记为$P_e$, 称为误码率

    • 码元比特之比记为$P_b$, 称为误比特率

      两者关系: $P_e = 1 - (1 - P_b)^n$, 其中$n$是码元的位数