当前位置: 首页 > news >正文

Joint communication and state sensing under logarithmic loss

摘要——我们研究一种基本的联合通信与感知设置,其中发射机希望向接收机传输一条消息,并同时通过广义反馈估计其信道状态。我们假设感知目标是获得状态的软估计(即概率分布),而非通常假设的点估计;并且我们使用对数损失失真作为保真度度量。聚焦于具有独立同分布(i.i.d.)状态的无记忆设置,我们描述了通信率与感知失真之间的最优权衡。在此过程中,我们阐明了所谓感知互信息效用函数的操作意义。

I. 引言

我们考虑一个双终端联合通信与感知(JCAS)设置,包含一个发射机和一个接收机。发射机希望通过状态依赖的离散无记忆信道(DMC) $P_{Y|X,S}$ 向接收机传输一条消息,其中 $X$ 是发射机发送的输入,$Y$是接收机观测到的输出,$S$是信道状态。同时,发射机希望通过广义反馈信道 $P_{Z|X,S}$ 估计信道状态,输出为 $Z$。显然,信道输入$X$ 在此扮演双重角色:编码消息以实现通信,探测信道以实现感知。自然地,这两个目标之间存在权衡,因为对第一个目的的最优输入通常对第二个目的并不是最优的。

Kobayashi等人[1]引入了上述基本模型并建立了可靠通信率(按Shannon定义)与状态估计保真度(用可分离失真度量表示)之间的权衡。这引发了一系列进一步的研究和扩展,包括多终端设置[2]-[4]、保密约束设置[5]、[6]和多天线高斯设置[7]等。所有这些工作都遵循相同的建模思路,允许状态以i.i.d.方式从一个信道使用变化到另一个(或更一般地,从一个区块到另一个,如[7]中)。另一种极端情况,即状态在整个传输过程中保持固定,已在[8]-[12]中考虑,假设状态取多个(通常是二进制)值。在当前工作中,我们专注于Kobayashi等人的原始设置,即具有i.i.d.状态。我们的目标是通过关注特定的保真度标准,进一步阐明通信与感知之间的权衡。

建立通信与感知之间基本权衡的一个挑战是选择感知保真度标准,即感知失真度量。一方面,人们理解失真的选择应该是应用特定的;但另一方面,不同的失真度量由不同的估计器最小化,并且常常导致不同的性能权衡。因此,建立一个"通用"的通信与感知权衡,超越特定失真度量选择的依赖,是很有意义的。

一种直观的通信与感知权衡,似乎不依赖于失真选择,可以用条件互信息术语描述为满足以下条件的所有非负元组(R, Γ):

R < I(X;Y|S) 和 \Gamma \leq I(S; Z|X) \quad (1)

对于某些可容许的输入$X$,其分布为$P_X$。在上式中,R是通信率,Γ是感知效用,通常被称为"感知率"或"感知互信息"[13]、[14]。将互信息用作感知效用函数相对较新,可以追溯到Bell关于雷达波形设计的工作[15](更近期的工作包括[16]-[18])。与通信率不同,感知率没有明确的操作意义。我们将稍后回到这个重要点,但在此之前,值得强调使上述特征化特别有趣的几个方面。

除了(1)中的特征化不依赖于特定的失真度量选择(至少在表面上看是如此)外,它还在$X$$S$的角色中展示了令人愉悦的对偶性。假设接收机知道信道状态S并希望恢复输入X,I(X;Y|S)捕获了观测Y中关于X给定S的信息量。对于发射机,X和S的角色相反,I(S;Z|X)捕获了Z中关于S给定X的信息量。此外,注意对于固定的$P_{Y|X,S}$$P_S$$I(X;Y|S)$在输入分布$P_X$上是凹的,而对于固定的$P_{Z|X,S}$$P_S$$I(S;Z|X)$$P_X$上是线性的。区域边界上的点可通过求解以下问题确定:

\max_{P_X} \lambda I(X;Y|S) + (1-\lambda)I(S;Z|X) \quad (2)

对于某个$\lambda \in [0, 1]$,这是控制权衡的权重。这是一个凸优化问题,可以高效求解,前提是输入字母表的大小是可管理的。

我们现在回到互信息的操作意义。对于通信,这已通过香农编码定理得到充分确立:我们知道存在可靠的编码方案¹,可实现高达互信息的所有速率,当在输入分布上最大化时,得到信道容量。而感知互信息,另一方面,经常被用作效用函数,但没有提供具体的操作解释。[13]中最近报告了一种可能的解释,将感知失真函数通过率-失真理论和数据处理不等式连接到感知互信息。然而,这种连接通常只在一些规范的特殊情况下才紧密成立。此外,这种连接隐含地要求使用率-失真编码来描述信道状态,这在大多数感知应用中可能是不必要的迂回,因为目标是直接估计状态。

在本文中,为了给(1)中的权衡提供具体解释,我们考虑Kobayashi等人[1]的基本设置,但采用不太常规的状态估计框架和失真度量。特别地,我们考虑获取状态的软估计,即概率分布(或信念),而非JCAS文献中更常见的点估计。软估计的保真度通过对数损失(log-loss)来衡量,这在预测和学习理论[19]-[21]以及数据压缩[22]-[24]中被广泛使用。我们描述了通信率与感知失真之间的基本权衡,并证明它可以通过互信息项和条件熵项来表示。这种权衡在某种意义上等同于(1)中的权衡。

II. 系统模型 

我们考虑一个状态依赖的DMC,输入为X,输出为Y和Z,状态为S。接收机通过$P_{Y|X,S}$观察Y,而发射机通过广义反馈获得Z,即通过P_{Z|X,S}。该信道使用n次,发射机希望通过传输输入序列$X^n \triangleq (X_1,\ldots,X_n)$向接收机发送消息,并同时通过广义反馈信号$Z^n \triangleq (Z_1,\ldots,Z_n)$估计状态序列$S^n \triangleq (S_1,\ldots,S_n)$

编码:发射机有一个消息W,从$[M_n] \triangleq {1,2,\ldots,M_n}$中均匀随机抽取。每比特信道的速率定义为:

R_n \triangleq \frac{1}{n}\log M_n \quad (3)

发射机希望将W发送给接收机,并同时通过广义反馈信道估计状态序列$S^n$。为此,发射机发送输入序列$X^n$,其中第$i$个符号$X_i$根据消息$W$和发射机在当时可获得的先前信道观测$Z^{i-1}$选择。因此,编码器是一系列函数$f^n \triangleq (f_1,f_2,\ldots,f_n)$,其中$f_i: [M_n] \times \mathcal{Z}^{i-1} \rightarrow \mathcal{X}$产生第$i$个输入符号$X_i = f_i(W, Z^{i-1})$

我们假设输入序列受到成本约束,通常代表实践中的功率约束。令$b: \mathcal{X} \rightarrow [0, \infty)$为成本函数,$B_n \in [0, \infty)$为每个输入符号的成本预算。则平均约束:

\frac{1}{n}\sum_{i=1}^n b(f_i(w, z^{i-1})) \leq B_n \quad (4)

必须对每个$w \in [M_n]$$z^n \in \mathcal{Z}^n$成立。

解码:接收$Y^n$并知道$S^n$后,接收机将消息解码为$\hat{W} = \varphi_n(Y^n, S^n)$,其中$\varphi_n: \mathcal{Y}^n \times \mathcal{S}^n \rightarrow [M_n]$是解码器。最大解码错误概率为:

\varepsilon_n \triangleq \max_{w\in[M_n]} \mathbb{P} [\varphi_n(Y^n, S^n) \neq W | W = w] \quad (5)

为方便起见,通常使用平均解码错误概率$\varepsilon_n^{\text{av}} \triangleq \mathbb{P} [\varphi_n(Y^n, S^n) \neq W]$。在操作上,控制最大错误概率更有意义,因为没有消息应该比其他消息有优先权。然而,就渐近可达率而言,通过排除[25]可以证明对最大错误的结果也适用于平均错误。

估计:接收$Z^n$并知道$W$后,发射机为状态序列$S^n$产生软估计。与硬估计(即点估计)不同,软估计是S^n上的概率分布(即pmf)。软估计器是一个函数$\psi_n: \mathcal{Z}^n \times [M_n] \rightarrow \mathcal{P}(S^n)$,其中$\mathcal{P}(S^n)$$S^n$上的概率单纯形。给定$Z^n = z^n$$W = w$,对$S^n$的软估计记为$\psi_n(z^n, w) = Q(\cdot|z^n, w)$,其中$Q(\cdot|z^n, w) \in \mathcal{P}(S^n)$。注意,如果$Q(\cdot|z^n, w)$有单点质量,则软估计简化为点估计。

软估计的保真度通过对数损失失真来衡量。状态序列$s^n$与软估计$\psi_n(z^n, w) = Q(\cdot|z^n, w)$之间的对数损失定义为:

\ell(s^n, \psi_n(z^n, w)) \triangleq \log\frac{1}{Q(s^n|z^n, w)} \quad (6)

对数损失,也称为自信息损失,可理解为给定软估计$Q(\cdot|z^n, w)$后关于$s^n$的剩余不确定性[22], [23]。例如,当且仅当$Q(\cdot|z^n, w)$$s^n$处有单点质量(即精确点估计)时,$\ell(s^n, \psi_n(z^n, w))$为零;当$s^n$$Q(\cdot|z^n, w)$下概率为零时,则为无穷大。

给定发送消息w,预期的对数损失失真为:

\Delta_n(w) \triangleq \frac{1}{n}\mathbb{E}[\ell(S^n, \psi_n(Z^n, W)) | W = w] \quad (7)

其中除以n是为了方便渐近分析。类似于最大解码错误概率,我们的失真度量定义为针对消息指标取最大值:

\Delta_n \triangleq \max_{w\in[M_n]}\frac{1}{n}\mathbb{E}[\ell(S^n, \psi_n(Z^n, W)) | W = w] \quad (8)

备注1. 也可以通过取消息的平均值来定义失真度量:

\Delta_n^{\text{av}} \triangleq \frac{1}{n}\mathbb{E}[\ell(S^n, \psi_n(Z^n, W))] \quad (9)

这在JCAS的大多数工作[1]-[7]中是常见做法,即各种失真度量通过取消息的平均值而非最大值来定义。我们认为这主要是出于技术便利,但从操作角度看不太合适。给定的感知性能应该无论通信什么消息都能保证,因此最大值似乎更合适。

率-失真区域:如果对于任何$\epsilon > 0$,存在一个编码$(f^n, \varphi_n, \psi_n)$,使得在足够大的$n$下,$R_n \geq R-\epsilon$$\Delta_n \leq \Delta+\epsilon$$B_n \leq B+\epsilon$$\varepsilon_n \leq \epsilon$,则编码器-解码器-估计器三元组$(f^n, \varphi_n, \psi_n)$被称为可达的。率-失真区域是所有可达$(R, \Delta)$元组的闭包。

III. 主要结果

定理1. (R, \Delta)是可达的当且仅当:

$R < I(X;Y|S)$
\Delta \geq H(S|Z,X) \quad (10)

对于某个输入随机变量X,其pmf $P_X$满足$\mathbb{E}[b(X)] \leq B$。上述区域中涉及的随机变量满足$(X,S,Y,Z) \sim P_X P_S P_{Y|X,S} P_{Z|X,S}$

我们将在下一节证明上述定理,但在此之前,先讨论(10)与(1)中率区域的等价性,并给出一个简单例子。

1) 感知率和等效率区域:我们将在下一节看到,最小化预期对数损失的最优软估计是状态序列的后验分布。在传输前,最小化预期对数损失的软估计是状态序列的先验分布,相应的预期对数损失是每符号$H(S)$。我们将率$\Gamma = H(S) - \Delta$定义为先验和后验预期对数损失之间的差值。使用这个定义,(10)中的率权衡转换为(1)中的率权衡。

2) 例子Y = SX \oplus N_Y and Z = SX \oplus N_Z \quad (11)

其中$S \sim \text{Bern}(\beta)$是状态,$N_Y \sim \text{Bern}(p)$$N_Z \sim \text{Bern}(q)$是噪声项,都是伯努利分布,相互独立且独立于X。注意,$\epsilon,p,q \in [0,1]$是相应的伯努利参数,$\oplus$表示模2和。可以证明,在这种情况下,率区域由所有非负值$(R,\Gamma)$给出,满足:

$R \leq \beta[h_b(\alpha * p) - h_b(p)]$
\Gamma \leq \alpha[h_b(\beta * q) - h_b(q)] \quad (12)

对于某个参数 $\alpha \in [0.5, 1]$,表示输入 $X$ 的伯努利参数,其中 $h_b(\cdot)$ 是二进制熵函数,$\alpha * p \triangleq \alpha(1-p) + (1-\alpha)p$。上述权衡生动地捕捉了 $X$$S$ 所扮演的双重角色。

IV. 定理1的证明

A. 对数损失下的状态感知

现在,我们暂时搁置通信部分,仅关注问题的感知部分。为此,固定一个消息 $W = w$和一个编码器$f^n$,并回顾输入序列完全由 $Z^{n-1}$$w$ 确定,即 $X^n = f^n(Z^{n-1}, w)$。给定$Z^n = z^n$通过广义反馈被观察到,令人惊讶的是,$S^n$ 的最小化预期对数损失的软估计是后验分布 $P_{S^n|Z^n,X^n}(\cdot|z^n, f^n(w, z^{n-1}))$,如下所示。

引理1. 给定$W = w$和固定编码器 $f^n$,预期对数损失的下界为:

n\Delta_n(w) = \mathbb{E} [\ell(S^n, \psi_n(Z^n,W)) | W = w]

\geq H(S^n|Z^n, X^n = f^n(w, Z^{n-1})) \quad (13)

当且仅当软估计 $Q(\cdot|z^n,w)$ 取为后验分布 $P_{S^n|Z^n,X^n}(\cdot|z^n, f^n(w, z^{n-1}))$ 时等式成立。

证明. 条件于 $W = w$$Z^n = z^n$,预期对数损失的下界为:

$\mathbb{E} [\ell(S^n, \psi_n(Z^n,W)) | Z^n = z^n, W = w]$

= \sum_{s^n \in \mathcal{S}^n} P(s^n|z^n, f^n(w, z^{n-1})) \log \frac{1}{Q(s^n|z^n, w)} \quad (14)

= H(S^n|Z^n, X^n = f^n(w, Z^{n-1})) + D(P||Q) \quad (15)

\geq H(S^n|Z^n, X^n = f^n(w, Z^{n-1})) \quad (16)

其中 P 用作后验分布 $P_{S^n|Z^n,X^n}$ 的简写符号。(16)中的不等式源于相对熵(Kullback-Leibler散度)的非负性,当且仅当 $P = Q$时等式成立。通过对给定 $W = w$$Z^n$ 取期望,可得(13)。□

类似引理1的结果先前已在源编码[22], [23]和预测[21, Ch. 3.6]的背景下出现。引理1是这些结果对本文感知设置的适应,如下所示,它在定理1的可达性和逆定理证明中都起着核心作用。

B. 逆定理

假设率-失真元组$(R, \Delta)$ 在成本预算 $B$ 下可达。为了证明逆定理,我们可以处理平均(而非最大消息)错误概率和对数损失失真,因为 $\varepsilon_n \leq \epsilon$$\Delta_n \leq \Delta+\epsilon$ 分别意味着 $\varepsilon_n^{\text{av}} \leq \epsilon$$\Delta_n^{\text{av}} \leq \Delta+\epsilon$

从Fano不等式开始,通过标准步骤(见[26, Ch. 3.1.5]),通信率的上界为:

n(R - \epsilon - \delta_n) \leq I(W; Y^n, S^n) \quad (17)

= \sum_{i=1}^n I(W; Y_i, S_i|Y^{i-1}, S^{i-1}) \quad (18)

\leq \sum_{i=1}^n I(W, Y^{i-1}, S^{i-1}; Y_i, S_i) \quad (19)

\leq \sum_{i=1}^n I(W, Z^{i-1}, Y^{i-1}, S^{i-1}; Y_i, S_i) \quad (20)

\leq \sum_{i=1}^n I(X_i, Y^{i-1}, S^{i-1}; Y_i, S_i) \quad (21)

= \sum_{i=1}^n I(X_i; Y_i|S_i) \quad (22)

其中$\delta_n \geq 0$可以通过增加$n$ 变得任意小。注意,(21)来自 $X_i = f_i(W, Z^{i-1})$ 和数据处理不等式。定义一个输入随机变量 $X \sim P_X$,其分布 $P_X$定义为:

$P_X(a) = \frac{1}{n} \sum_{i=1}^n P_{X_i}(a)$,对所有$a \in \mathcal{X}$\quad (23)

可以证明,上述定义的随机变量 X满足预期成本约束 $\mathbb{E}[b(X)] \leq B + \epsilon$(见附录)。利用互信息在输入分布上的凹性和Jensen不等式,我们得到:

R \leq I(X; Y|S) + \epsilon + \delta_n \quad (24)

现在转向对数损失。我们写道:

n(\Delta + \epsilon) \geq n\Delta_n^{\text{av}} \quad (25)

= \mathbb{E} [\ell(S^N, \psi_n(Z^n, W))] \quad (26)

\geq H(S^n|Z^n, X^n) \quad (27)

\geq H(S^n|Z^n, W) \quad (28)

其中(27)来自引理1并对 W取期望,而(28)成立是因为 $X^n = f^n(W, Z^{n-1})$。对于接下来的步骤,我们发现处理感知率 $\Gamma = H(S) - \Delta$更为方便。我们按如下方式进行:

n(\Gamma - \epsilon) \leq H(S^n) - H(S^n|Z^n, W) \quad (29)

= I(S^n; Z^n|W) \quad (30)

= \sum_{i=1}^n I(S^n; Z_i|Z^{i-1}, W) \quad (31)

= \sum_{i=1}^n I(S^n; Z_i|Z^{i-1}, W, X_i) \quad (32)

\leq \sum_{i=1}^n H(Z_i|X_i) - H(Z_i|X_i, Z^{i-1}, W, S^n) \quad (33)

= \sum_{i=1}^n I(S_i; Z_i|X_i) \quad (34)

(32)来自 $X_i = f_i(W, Z^{i-1})$,而(34)成立是因为 $(W, Z^{i-1}, S^{i-1}, S_{i+1}^n) \rightarrow (S_i, X_i) \rightarrow Z_i$形成马尔可夫链,因此$H(Z_i|X_i, Z^{i-1}, W, S^n) = H(Z_i|X_i, S_i)$

从(34)继续,我们写道:

\Gamma - \epsilon \leq \frac{1}{n} \sum_{i=1}^n I(S_i; Z_i|X_i) \quad (35)

= \sum_{a\in\mathcal{X}} \frac{1}{n}\sum_{i=1}^n P_{X_i}(a)I(S_i;Z_i|X_i=a)\quad (36)

= \sum_{a\in\mathcal{X}} P_X(a)I(S;Z|X=a) \quad (37)

= I(S;Z|X) \quad (38)

其中我们使用了(23)中定义的输入分布$P_X$

通过足够增大n,我们可以使(24)和(38)中的$\epsilon$$\delta_n$变得任意小。令$n \rightarrow \infty$$\epsilon,\delta_n \rightarrow 0$,由此可得$R \leq I(X;Y|S)$$\Gamma \leq I(S;Z|X)$(或等价地,$\Delta \geq H(S|Z,X)$),对于某些满足$\mathbb{E}[b(X)] \leq B$$P_X$成立,这就证明了逆定理。

C. 可达性

对于可达性部分,只需证明定理1中区域的边界曲线是可达的。该边界曲线由形如(R^*(∆,B),∆)的对组成,其中:

$R^*(\Delta, B) \triangleq \max_{P_X} I(X;Y|S),$

\text{s.t. } H(S|Z,X) = \Delta, \mathbb{E}[b(X)] = B. \quad (39)

考虑边界曲线上的任意一点$(R,\Delta)$,令$P_X$为满足$R = R^*(\Delta,B) = I(X;Y|S)$$H(S|Z,X) = \Delta$$\mathbb{E}[b(X)] = B$的输入分布。如我们将看到的,使用非反馈码和非自适应编码器就足够了。这并不奇怪,因为信道和状态序列都是无记忆的(参见[1]、[3])。

固定$n$$\epsilon > 0$。每个消息索引$w \in [M_n]$映射到一个码字$x^n(w) \in \mathcal{X}^n$,所有码字共同组成一个码本$C_n = {x^n(1), x^n(2), \ldots, x^n(M_n)}$。状态序列$S^n$的后验概率分布分解为:

P_{S^n|Z^n,X^n}(s^n|z^n, x^n(w)) = \prod_{i=1}^n P_{S|Z,X}(s_i|z_i, x_i(w)). \quad (40)

以(40)中的后验分布作为软估计可得:

$\Delta_n(w) = \frac{1}{n}H(S^n|Z^n, X^n = x^n(w))$

= \frac{1}{n}\sum_{i=1}^n H(S_i|Z_i, X_i = x_i(w)). \quad (41)

显然,对于每个$w \in [M_n]$,如果所有码本$C_n$中的码字都从集合$\mathcal{B}n$中选择,则保证实现$\Delta_n(w) \leq \Delta + \epsilon$的同时满足$\frac{1}{n}\sum{i=1}^n b(x_i(w)) \leq B + \epsilon$,其中:

\mathcal{B}n \triangleq {x^n \in \mathcal{X}^n: \frac{1}{n}\sum{i=1}^n b(x_i) \leq B + \epsilon, \frac{1}{n}\sum_{i=1}^n H(S|Z, X = x_i) \leq \Delta + \epsilon}. \quad (42)

接下来需要证明存在这样一个码本,其速率$\frac{1}{n}\log M_n \geq I(X;Y|S) - \epsilon$且错误概率$\varepsilon_n \leq \epsilon$

为此,我们引用一个被称为Feinstein引理的信道编码定理(见[27, 定理18.7])。在该引理的表述中,$X^n \sim P_{X^n}$是从多字母输入分布$P_{X^n}$中抽取的随机输入序列,该分布在集合$\mathcal{B}n$上有支撑,且$i(x^n;y^n|s^n) \triangleq \log \frac{P{Y^n|X^n,S^n}(y^n|x^n,s^n)}{P_{Y^n|S^n}(y^n|s^n)}$是条件于状态序列的信息密度。

引理2. 固定阈值参数$\gamma_n > 0$。存在一个码本$C_n \subseteq \mathcal{B}_n$,大小为$|C_n| = M_n$,且最大解码错误概率$\varepsilon_n$满足:

\varepsilon_n \leq \mathbb{P}[i(X^n;Y^n|S^n) < \log \gamma_n] + \frac{M_n}{\gamma_n}. \quad (43)

接下来,我们通过适当选择多字母输入分布$P_{X^n}$和阈值参数$\gamma_n$来证明可实现期望的速率。特别地,我们设:

P_{X^n}(x^n) = \frac{P_X^n(x^n)}{P_X^n(\mathcal{B}_n)}\mathbf{1}[x^n \in \mathcal{B}_n] \quad (44)

其中$P_X^n(x^n) = \prod_{i=1}^n P_X(x_i)$是来自$P_X$(在可达性开始时定义)的$n$重乘积分布,且$P_X^n(\mathcal{B}n) \triangleq \sum{x^n \in \mathcal{B}_n} P_X^n(x^n)$。此外,我们设置$\gamma_n$使得$\frac{1}{n}\log \gamma_n = I(X;Y|S) - \epsilon/2$。有了这些选择,(43)中的项$\mathbb{P}[i(X^n;Y^n|S^n) < \log \gamma_n]$随着n趋于无穷而趋于零,如下所示:

\mathbb{P}[i(X^n;Y^n|S^n) < \log \gamma_n]

$= \sum_{x^n} P_{X^n}(x^n)\mathbb{P}[i(X^n;Y^n|S^n) < \log \gamma_n | X^n = x^n]$

\leq \frac{1}{P_X^n(\mathcal{B}_n)}\mathbb{P}[\frac{1}{n}i(X^n;\tilde{Y}^n|S^n) < I(X;Y|S) - \frac{\epsilon}{2}] \quad (45)

其中$\tilde{X}^n \sim P_X^n$$\tilde{Y}^n$是相应的接收机输出。根据大数定律,$P_X^n(\mathcal{B}_n) \rightarrow 1$$\mathbb{P}[\frac{1}{n}i(\tilde{X}^n;\tilde{Y}^n|S^n) < I(X;Y|S) - \frac{\epsilon}{2}] \rightarrow 0$,随着$n \rightarrow \infty$

此外,通过选择$M_n$使得$\frac{1}{n}\log M_n = I(X;Y|S)-\epsilon$,(43)中的项$\frac{M_n}{\gamma_n}$也趋于零,因为$n$趋于无穷。因此,对于足够大的n,保证了$\varepsilon_n \leq \epsilon$,这就完成了证明。

备注2. 引理2是一个使用Feinstein最大编码和次优阈值解码证明的民间编码定理变体。一个类似但略微较弱的界限也适用于平均编码错误概率,且可以使用Shannon的随机编码与阈值解码来证明。这两种界限都适用于我们证明渐近结果的目的。我们建议读者参考[27, Ch. 18]获取关于这些界限的全面现代处理,它们有时被称为信息谱界限或单次界限³。此外,Feinstein引理的成本约束版本在[27, 定理20.7]中给出,服务于相同目的。

备注3. 定理1的可达性也可以使用更常见的联合典型性方法来证明。为此,使用鲁棒典型性(在El-Gamal和Kim[26]中广泛使用)并调用典型平均引理来处理(42)中的输入成本和感知约束可能最为方便。这基本上是[1]中采用的方法,但使用平均(而非最大)失真度量,相对于最大值略微容易处理。我们选择了通过Feinstein引理使用信息谱单次方法,它具有一些优势。首先,它直接扩展到具有连续字母表的信道(如高斯信道),无需离散化(这是扩展基于鲁棒典型性的证明所需的)。此外,上述可达性结果可通过正态近似(参见[27, 定理19.11])得到有限块长特征化。最后,尽管不是本文的重点,基于Feinstein引理的可达性适用于一般的信道,例如有记忆或非平稳或非遍历[28]的信道。

V. 高斯信道

到目前为止,我们一直考虑具有离散字母表的信道,但这些结果也适用于具有连续字母表的信道,前提是$S$具有有界微分熵的先验和后验概率密度(即$h(S|Z,X) > -\infty$)。高斯信道满足此要求,其输出为:

Y = SX + N_Y and Z = SX + N_Z \quad (46)

其中$S \sim \mathcal{N}(0,1)$表示状态,$N_Y \sim \mathcal{N}(0,1)$$N_Z \sim \mathcal{N}(0,1)$是噪声项,都相互独立且独立于$X$。输入受到平均功率(即平方成本)约束,预算为$P$

根据定理1,可以证明,率-失真权衡由所有满足以下条件的对$(R,\Delta)$给出:

$R \leq I(X;Y|S)$\Delta \geq \frac{1}{2}\mathbb{E}\left[\log\left(\frac{2\pi e}{1+|X|^2}\right)\right] \quad (47)

对于某些满足$\mathbb{E}[|X|^2] \leq P$$X$。注意,在这种情况下,失真(即预期对数损失)可以是负的。等价地,率区域由所有满足以下条件的对$(R,\Gamma)$给出:

R \leq I(X;Y|S) and \Gamma \leq \frac{1}{2}\mathbb{E}[\log(1+|X|^2)] \quad (48)

为了比较,我们呈现[1]中在平方损失失真度量下的结果。在这种情况下,率-失真区域由所有满足以下条件的对$(R,D)$组成:

$R \leq I(X;Y|S)$D \geq \mathbb{E}\left[\frac{1}{1+|X|^2}\right] \quad (49)

根据Jensen不等式,对数损失和平方损失失真都由满足|X|^2 = P的输入最小化。因此,在最小失真下,二进制相移键控(BPSK)在两种情况下都实现最佳速率。

然而一般来说,(47)和(49)中的权衡并不必然等价。为了理解这一点,令:

\text{mmse}(x) \triangleq \mathbb{E}[(S - \mathbb{E}[S|Z, X = x])^2] = \frac{1}{1+|x|^2} \quad (50)

为给定$X = x$条件下从$Z$估计$S$的最小均方误差(MMSE)。在速率约束$R$下,通过解决以下问题来最小化平方损失失真:

\min_{X:\mathbb{E}[|X|^2]\leq P} \mathbb{E}[\text{mmse}(X)],满足 I(X;Y|S) \geq R. \quad (51)

在对数损失失真下的相应问题是

$\min_{X:\mathbb{E}[|X|^2]\leq P} e^{\mathbb{E}[\log(mmse(X))]} \quad \text{s.t.} \quad I(X;Y|S) \geq R \quad (52)$

其中对目标函数进行指数化处理并忽略常数不会改变问题。注意,(51) 是 MMSE 的算术平均值的最小化问题,作为输入 X的函数,而 (52) 是其几何平均值的最小化问题。这两种情况可能导致不同的最优输入分布。研究这两种情况下最优输入分布的结构是未来工作的内容。

VI. 讨论

通过将 [1] 中的一般速率-失真权衡专门化为对数损失失真,可以得到类似定理 1 的结果 [1,定理 1]。然而,严格来说,这种专门化并不严谨,因为 [1] 中的证明适用于离散重构字母表和可分离失真度量(即单字母失真的归一化和)。软估计不是离散的(即使状态字母表是),且第 II 节中定义的对数损失不是可分离的。后一个问题可以通过将软估计的集合限制为乘积分布来规避,这在我们特定情况下由于独立同分布状态而不是一个主要限制。尽管如此,我们在此提出的问题表述和我们采用的证明技术更为通用,为处理具有记忆的信道铺平了道路。

对状态感知互信息的另一种有效解释是通过列表解码 [29]。然而,这种解释适用于具有离散字母表的信道,对于具有连续字母表的信道似乎不成立。此外,如 [23] 在源编码背景下所示,软估计下的对数损失与一般的LIST大小不完全等价,但在离散字母表下两者在某种程度上是等价的。

相关文章:

  • iOS18 MSSBrowse闪退
  • Unity 创建、读取、改写Excel表格数据
  • 理解计算机系统_网络编程(1)
  • 自建开源远程协助服务RustDesk —— 筑梦之路
  • Axure中继器表格:实现复杂交互设计的利器
  • 【Bug】 [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed
  • 【工具变量】各市ZF数字治理指标数据集(2001-2024年)
  • 大语言模型(LLM)的Prompt Engineering:从入门到精通
  • 同z科技面经
  • 2024从Maven-MySQL-Nginx部署
  • 【解决】layui layer的提示框,弹出框一闪而过的问题
  • 众趣科技X世界读书日丨数字孪生技术赋能图书馆空间智慧化运营
  • RPC通信原理实战
  • 7.7 Axios+Redux+JWT全链路实战:打通前后端API通信最佳实践
  • 【论文阅读】Hierarchical Group-Level Emotion Recognition
  • Sklearn 与 TensorFlow 机器学习实用指南-第八章 降维-笔记
  • 考研系列-计算机组成原理第一章:计算机系统概述
  • 什么是DDD?为什么它正在取代传统架构?
  • MFC案例:使用键盘按键放大、缩小窗口图像的实验
  • 21.disql命令登录达梦数据库,查询并操作数据库
  • 嫦娥五号月球样品将借给这些国家机构
  • 基辅响起密集爆炸声,乌方称俄军发动大规模导弹袭击
  • 最高法典型案例:学生在校受伤,学校并非必然担责
  • 新“出差三人组”亮相!神二十乘组简历来了
  • 上海一小学百名学生齐聚图书馆:纸质书的浪漫AI无法取代
  • 罗马教皇方济各去世