通信原理教程chapter2(上)

通信原理教程chapter2(上)

学习著

教材用的是《通信原理教程》(第三版)–樊昌信著

这次博客尝试加入一些脑图来,因为思维导图上加公式很麻烦,所以相关的公式会全部移回博客里面

信号与系统

信号的分类

通信原理教程chapter2(上)
这里需要单独讲一下的就是功率信号与能量信号的判别,首先我们定义信号的能量为:
E=s2(t)dtE = \int^{\infty}_{-\infty} s^2(t)dt
那么如果一个信号为能量信号,则有:
0<E=s2(t)dt<0<E = \int^{\infty}_{-\infty} s^2(t)dt <\infty
如果一个信号为功率信号的话,首先我们定义信号的平均功率为:
P=limT1TT/2T/2s2(t)dtP=\lim_{T\rightarrow \infty}\frac1T\int^{T/2}_{-T/2}s^2(t)dt
根据定义,功率信号的平均功率为有限正值.

确知信号的性质

通信原理教程chapter2(上)
这里是信号与系统关于信号的高度概括.主要有三个要点:

  1. 由于第二章的信号所指的是模拟信号,所以在功率信号就以这三种为主:
    1. 周期信号,同时是确知信号,所以所用的方法就是傅里叶级数
    2. 随机信号,后面会谈及
    3. 一些双边信号(就是不符合inital rest)
  2. 对密度这个词的了解,其实不难,感性认识下,无非就是得乘个体积才可以得到质量.在这里也是一样的,密度代表着他必须经过积分才能得到确切的值,仅此而已
  3. 能量信号的运算是建立在周期功率信号取T>T->\infty时候的情况,也就是傅里叶级数得到傅里叶变换的条件,反之亦可

此般抽丝剥茧之后,这一看似很难的小节就是纯粹在复习信号与系统了.

功率信号的频谱

其实严格说是周期功率信号的频谱,也是就是有s(t)进行傅里叶级数展开:
s(t)=n=C(jnω0)ejnω0ts(t)=\sum^{\infty}_{n=-\infty}C(jn\omega_0)e^{jn\omega_0t}
其中:
C(jnω0)=1T0T0/2T0/2s(t)ejnω0tdtC(jn\omega_0)=\frac1{T_0}\int^{T_0/2}_{-T_0/2}s(t)e^{-jn\omega_0t}dt
完完全全就是信号与系统的内容,不过既然在学通信原理,就要搞通从信号与系统到通信原理各个傅里叶变换对的对应关系

能量信号的频谱密度

他表示的是这个信号他的频率分量分布.所以能量信号和他的频谱密度是傅里叶变换对的关系.
这里需要留意的一点在于,你看书上的图,频谱密度是有正有负的哈,先留个彩蛋.
也就是对能量信号s(t),有频谱密度S(w):
S(ω)=s(t)ejωtdtS(\omega) = \int^{\infty}_{-\infty}s(t)e^{-j\omega t}dt
同样地:
s(t)=12πS(ω)ejωtdω s(t) = \frac1{2\pi}\int^{\infty}_{-\infty} S(\omega) e^{j\omega t} d\omega
因为第一次遇到"密度",假设你要算那个频段的频率分(2声)量,一定要用积分.

能量谱密度

这个东西发明的起源在于帕斯瓦尔定理:
E=s2(t)dt=S(f)2dfE=\int^{\infty}_{-\infty}s^2(t)dt = \int^{\infty}_{-\infty} |S(f)|^2 df
他描述的是,你一个信号,不管通过什么鬼变换,最终在不同向量空间呈现的能量是守恒的.
而其中我们的能量谱密度也是这样定义了:$ |S(f)|^2 $就是能量谱密度,联系前面,可以有以下解读:

  1. 能量谱密度相当于把复频域做了实域投影.(可以不理解…)
  2. 能量谱密度是恒正的,因为他描述的是信号他的频率能量分布(注意对比)

功率谱密度

其实就是定义类比,你能量信号的能量谱密度对频率分量的能量下手,那我功率信号的功率谱就对频率分量的功率下手咯.
但是导出的思想是很有意思的,主要参考我前面所说的要点3,不过他不是拆开功率信号来求能量信号,而是把功率信号看成分段的能量信号来求,再将这个分段的间隔取无穷.
对功率信号里面的一段能量信号:
E=T/2T/2sT2(t)dt=ST(f)2dfE=\int^{T/2}_{-T/2}s^2_T(t)dt = \int^{\infty}_{-\infty} |S_T(f)|^2 df

所以取功率谱密度:
P(f)=limT1TST(f)2P(f) = \lim_{T\rightarrow \infty} \frac1T|S_T(f)|^2

特别地,如果功率信号具有周期性,那就好办了,根据帕斯瓦尔定理:
P(f)=1T0T0/2T0/2s2(t)dt=n=C(jnω0)2P(f) = \frac1{T_0}\int^{T_0/2}_{-T_0/2}s^2(t)dt = \sum^{\infty}_{n=-\infty} |C(jn\omega_0)|^2

这里应该想想的是能量谱密度和功率谱密度有没有相对应的傅里叶变换对呢?

相关函数

这个其实也是信号与系统哪里讲的,不过印象中当时讲课没讲到.大家可以去翻翻奥本海默的信号与系统的第一章习题看看.(教材我不太清楚在哪里)

  1. 自相关函数(能量信号)
    R(τ)=s(t)s(t+τ)dt<τ<R(\tau) =\int^{\infty}_{-\infty}s(t)s(t+\tau)dt \quad -\infty < \tau < \infty
  2. 自相关函数(功率信号) 由要点3
    R(τ)=limT1TT/2T/2s(t)s(t+τ)dt<τ<R(\tau) =\lim_{T\rightarrow \infty} \frac1T\int^{T/2}_{-T/2}s(t)s(t+\tau)dt \quad -\infty < \tau < \infty
  3. 互相关函数(能量信号)
    R(τ)=s1(t)s2(t+τ)dt<τ<R(\tau) =\int^{\infty}_{-\infty}s_1(t)s_2(t+\tau)dt \quad -\infty < \tau < \infty
  4. 互相关函数(功率信号) 由要点3
    R(τ)=limT1TT/2T/2s1(t)s2(t+τ)dt<τ<R(\tau) =\lim_{T\rightarrow \infty} \frac1T\int^{T/2}_{-T/2}s_1(t)s_2(t+\tau)dt \quad -\infty < \tau < \infty

值得注意的是,相关函数和卷积的关系,其实从结构上就已经差不多可以看到他们有些许联系了,不过由于好像没用到,所以这里作为课外拓展吧(可以去翻翻奥本海默的信号与系统的第一章习题),考研听说有用…
性质:
R21(τ)=R12(τ)R_{21}(\tau)=R_{12}(\tau)
###信号与系统(信号块)总结
蛮简单的啦,不过概念一定要分清:
通信原理教程chapter2(上)

概率论(随机变量)

因为前面内容太长了…这里就先写随机变量吧
通信原理教程chapter2(上)

随机变量分布和举例

这里蛮简单的,仅提供公式:

随机变量的分布函数

离散:
FX(x)=P(Xx)=i=1npiu(xxi)F_X(x) = P(X\leq x)= \sum^n_{i=1}p_iu(x-x_i)
连续:
FX(x)=P(a<Xb)=abpX(x)dxF_X(x) = P(a<X\leq b)= \int^b_a p_X(x)dx

随机变量的密度函数

pX(x)=dFX(x)dxp_X(x)=\frac{dF_X(x)}{dx}

正态分布

pX(x)=12πσe(xa)22σ2p_X(x) = \frac1{\sqrt{2\pi}\sigma}e^{-\frac{(x-a)^2}{2\sigma^2}}
以后会用这个标准来写(就是e的指数函数改成exp())
pX(x)=12πσexp[(xa)22σ2]p_X(x) = \frac1{\sqrt{2\pi}\sigma}exp[-\frac{(x-a)^2}{2\sigma^2}]

均匀分布

pX(x)={1/(ba)axb0othersp_X(x)=\begin{cases} 1/(b-a) \quad\quad a\leq x\leq b \\ 0 \quad \quad \quad \quad \quad others \end{cases}

瑞利分布

pX(x)=2xaexp(x2a),x0p_X(x) = \frac{2x}a exp(-\frac{x^2}a),\quad\quad x\geq 0

随机变量的数字特征

数字期望

  1. 定义:
    E(X)=xPX(x)dxE(X) = \int^{\infty}_{-\infty} xP_X(x)dx
  2. 性质:
    E(C)=CE(C)=C
    E(X+Y)=E(X)+E(Y)E(X+Y)=E(X)+E(Y)
    E(X+C)=E(X)+CE(X+C)=E(X)+C
    E(CX)=CE(X)E(CX)=CE(X)
    E(XY)=E(X)E(Y)E(XY)=E(X)E(Y)
    E(X1+X2+.....+Xn)=E(X1)+E(X2)+......+E(Xn)E(X_1+X_2+.....+X_n)=E(X_1)+E(X_2)+......+E(X_n)

方差

  1. 定义(统计):
    D(X)=σX2=E[(XXˉ)2]D(X)=\sigma^2_X=E[(X-\bar{X})^2]
    化简得(take care):
    D(X)=X2ˉXˉ2D(X)=\bar{X^2}-\bar{X}^2
    对连续变量:
    D(X)=(xXˉ)2pX(x)dxD(X) = \int^{\infty}_{-\infty} (x-\bar{X})^2 p_X(x)dx
    对离散变量:
    D(X)=i(xiXˉ)2pi D(X)=\sum_i (x_i-\bar{X})^2 p_i
  2. 性质:
    D(C)=0D(C)=0
    D(C+X)=D(X)D(C+X)=D(X)
    D(CX)=C2D(X)D(CX)=C^2D(X)
    D(X+Y)=D(X)+D(Y)D(X+Y)=D(X)+D(Y)
    D(X1+X2+.....+Xn)=D(X1)+D(X2)+......+D(Xn)D(X_1+X_2+.....+X_n)=D(X_1)+D(X_2)+......+D(X_n)

这是个好东西,不过先埋个坑

  1. 定义
    E[(Xa)k]=(xa)kpX(x)dxE[(X-a)^k]=\int^{\infty}_{-\infty}(x-a)^kp_X(x)dx
    若a=0 ,则称其为X的k阶原点矩,记为mk(X)m_k(X)
    mk(X)=xkpX(x)dxm_k(X)= \int^{\infty}_{-\infty}x^kp_X(x)dx
    若a=Xˉ\bar{X} ,则称其为X的k阶中心矩,记为Mk(X)M_k(X)
    Mk(X)=(xXˉ)kpX(x)dxM_k(X)= \int^{\infty}_{-\infty}(x-\bar{X})^kp_X(x)dx
    2.性质
    一阶原点矩为数学期望,二阶中心距为方差.

结语

这篇blog的前后用了两种风格,一个是字超多帮助记忆型,一个是直接粗暴公式型.不知道大家喜欢那种呢?可以通过评论(私信)告诉我喔