Capacidade de um canal

Origem: Wikipédia, a enciclopédia livre.

Em engenharia elétrica, ciência da computação e teoria da informação, capacidade de canal é o limite superior da taxa na qual a informação pode ser transmitida de forma confiável através de um canal de comunicações.

Pelo teorema de codificação de canal ruidoso, a capacidade de canal para um determinado canal é o limite da taxa de informação (em unidades de informação por unidade de tempo) que pode ser alcançado com uma pequena probabilidade de erro arbitrário.[1][2]

A teoria da informação, desenvolvida por Claude E. Shannon , durante a II Guerra Mundial, define a noção de capacidade de canal e fornece um modelo matemático através do qual pode-se calcular esta capacidade. O resultado indica que a capacidade do canal, como definido acima, é dada pela máxima informação mútua entre a entrada e a saída do canal, onde a maximização é relacionada à distribuição de entrada.[3]

A noção de capacidade de canal tem sido fundamental para o desenvolvimento de sistemas de comunicação com e sem fio modernos, com o advento de novos mecanismos de correção de erros de codificação que resultaram na obtenção de um desempenho muito próximo dos limites prometidos pela capacidade de canal.

Definição Formal[editar | editar código-fonte]

Definimos  e  como as variáveis aleatórias que representam a entrada e a saída do canal, respectivamente. Definimos  como a função de distribuição condicional de dado , o que é uma propriedade fixa própria do canal de comunicações. Em seguida, a escolha da distribuição marginal  determina por completo a distribuição conjunta devido à identidade

que, por sua vez, induz uma informação mútua . A capacidade do canal é definida como

onde o supremo é tomado sobre todas as opções possíveis de .

Capacidade de um grafo de Shannon[editar | editar código-fonte]

Se G é um grafo não direcionado, ele pode ser usado para definir um canal de comunicações, em que os símbolos são os vértices do gráfico, e duas palavras-código podem ser confundidas uma com a outra se os seus símbolos em cada posição forem iguais ou adjacentes. A complexidade computacional de se encontrar a capacidade de Shannon de um canal como este permanece em aberto, mas pode ser delimitada superiormente por outro importante invariante de grafo, o número de Lovász.[4]

Teorema da codificação de canal ruidoso[editar | editar código-fonte]

O teorema de codificação de canal ruidoso afirma que, para qualquer ε > 0 e para qualquer taxa de transmissão R menor do que a capacidade de canal C, há um esquema de codificação e decodificação que transmite dados a uma taxa R cuja probabilidade de erro é menor do que ε, para um bloco de comprimento suficientemente grande. Além disso, para qualquer taxa maior do que a capacidade do canal, a probabilidade de erro no receptor tende a um como o comprimento do bloco tende ao infinito.

Exemplo de aplicação[editar | editar código-fonte]

Um aplicação do conceito de capacidade de canal para um canal de ruído branco aditivo Gaussiano (AWGN) com largura de banda de B Hz e razão sinal-ruído S/N é o teorema Shannon–Hartley:

C é medido em bits por segundo se o logaritmo é tomado na base 2, ou nats por segundo se o logaritmo natural é usado, supondo que B seja em hertz; a potência do sinal e o ruído S e N são medidos em watts ou volts2, então o sinal-ruído aqui é expresso como uma relação de potência, não em decibéis (dB); como figuras são geralmente citadas em dB, uma conversão pode ser necessária. Por exemplo, 30 dB é uma relação de potência de .

Capacidade de canal em comunicações sem fio[editar | editar código-fonte]

Esta seção[5] centra-se em uma única antena, com um cenário ponto-a-ponto. Para a capacidade de canal em sistemas com múltiplas antenas, consulte o artigo sobre MIMO.

Canal AWGN[editar | editar código-fonte]

Se a potência média recebida é [W] e o ruído de densidade espectral de potência é [W/Hz], o capacidade de canal AWGN é

[bits/s],

onde é a razão sinal-ruído (SNR) recebida. Este resultado é conhecido como o teorema de Shannon–Hartley.[6]

Quando a SNR é grande (SNR >> 0 dB), a capacidade é logarítmica na potência e aproximadamente linear na largura de banda. Isto é chamado de regime de largura de banda limitada.

Quando a SNR é pequena (SNR << 0 dB), a capacidade é linear na potência, mas insensível à largura de banda. Isto é chamado de regime de potência limitada.

O regime de largura de banda limitada e o regime de potência-limitada estão ilustrados na figura.

Canal de frequência-seletiva[editar | editar código-fonte]

A capacidade do canal de frequência seletiva é dada pela chamada alocação de potência water filling,

onde e é o ganho de subcanal , com escolhido para atender a restrição de potência.

Canal de desvanecimento-lento[editar | editar código-fonte]

Em um canal de desvanecimento lento, onde o tempo de coerência é maior do que os requisitos de latência, não há uma capacidade definida quando a máxima taxa de comunicação confiável suportada pelo canal, depende do ganho aleatório do canal , que é desconhecido para o transmissor. Se o transmissor codifica os dados a uma taxa de [bits/s/Hz], existe uma probabilidade não-zero de que a probabilidade de erro de decodificação não possa ser arbitrariamente pequena,

,

na qual o sistema é dito estar em interrupção. Com uma probabilidade não-zero de que o canal esteja em profundo desvanecimento, a capacidade de desvanecimento lento do canal em sentido literal é zero. No entanto, é possível determinar o maior valor de de tal forma que a probabilidade de interrupção  seja menor que . Este valor é conhecido como o -capacidade de interrupção.

Canal de desvanecimento-rápido[editar | editar código-fonte]

Em um canal de rápido desvanecimento, onde os requisitos de latência é maior do que o tempo de coerência e o comprimento da palavra-código se estende por muitos períodos de coerência, pode-se balancear ao longo de muitos desvanecimentos de canal independentes através da codificação sobre um grande número de intervalos de tempo de coerência. Assim, é possível alcançar uma confiável taxa de comunicação de [bits/s/Hz] e é significativo falar deste valor como a capacidade de canal de rápido desvanecimento.

Veja também[editar | editar código-fonte]

Ligações externas[editar | editar código-fonte]

Referências[editar | editar código-fonte]

  1. Saleem Bhatti. «Channel capacity». Lecture notes for M.Sc. Data Communication Networks and Distributed Systems D51 -- Basic Communications and Networks 
  2. Jim Lesurf. «Signals look like noise!». Information and Measurement, 2nd ed. 
  3. Thomas M. Cover, Joy A. Thomas (2006). Elements of Information Theory. [S.l.]: John Wiley & Sons, New York 
  4. Lovász, László (1979), «On the Shannon Capacity of a Graph», IEEE Transactions on Information Theory, IT-25 (1), doi:10.1109/tit.1979.1055985 .
  5. David Tse, Pramod Viswanath (2005), Fundamentals of Wireless Communication, Cambridge University Press, UK 
  6. The Handbook of Electrical Engineering. [S.l.]: Research & Education Association. 1996. p. D-149. ISBN 9780878919819