Saltar para o conteúdo

Canal binário simétrico

Origem: Wikipédia, a enciclopédia livre.

O canal binário simétrico (ou BSC) é um modelo de canal de comunicações, estudado no contexto de teoria de códigos, comunicações e teoria da informação. Neste modelo, um transmissor deseja enviar um bit (zero ou um), e o receptor recebe um bit (zero ou um). O bit pode ser transmitido corretamente ou existe uma probabilidade de que seja invertido. Este canal é utilizado com frequência em teoria da informação por ser um modelo simples de ser analisado e que dá base a outros modelos de canais.

Diagrama de transição do canal binário simétrico.

O BSC é um canal binário, ou seja, pode transmitir apenas um dos dois símbolos possíveis (normalmente 0 e 1). A transmissão não é perfeita e eventualmente o receptor recebe um bit com erro. Deve-se salientar que outros tipos de canal são capazes de transmitir mais de dois símbolos e até mesmo um número infinito de símbolos.

Este canal é frequentemente utilizado por ser um dos canais com ruído mais simples de ser analisado. Muitos problemas em teoria de comunicação podem ser simplificados para o BSC. Por outro lado, a capacidade de transmissão eficaz através do BSC pode originar soluções para canais de maior complexidade.

O canal binário é simétrico se

PY|X( 0 | 0 ) = PY|X( 1 | 1 )

PY|X( 0 | 1 ) = PY|X( 1 | 0 )


As probabilidades dos símbolos de entrada são

PX(0) =

PX(1) = 1 -


Um canal binário simétrico com probabilidade de erro é um canal com entrada binária, saída binária e probabilidade de erro . Portando, se X é a variável aleatória transmitida e Y é a variável recebida, então o canal é caracterizado pelas seguintes probabilidades condicionais:

PY|X( 0 | 0 ) = 1 -

PY|X( 0 | 1 ) =

PY|X( 1 | 0 ) =

PY|X( 1 | 1 ) = 1 -


Portanto, a matriz do canal é:



E as relações do canal são:

PY(0) = (1 - ) + (1 - )

PY(1) = + (1 - )(1 - )


Estas equações podem ser confirmadas pelo cálculo da soma:

PY(0) + PY(1) = (1 - + ) + (1 - + )(1 - ) = + 1 - = 1


Finalmente, usando o Teorema de Bayes, temos a probabilidade dos símbolos que possivelmente foram enviados, dado o símbolo recebido:


PX|Y( 0 | 0 ) =

PX|Y( 1| 0 ) =

PX|Y( 0 | 1 ) =

PX|Y( 1| 1 ) =


Analisando os resultados acima observa-se que eles dependem das probabilidades de entrada do canal.

Capacidade do canal binário simétrico

[editar | editar código-fonte]

Utilizando a definição de Informação mútua, chega-se na seguinte realação:

I(X;Y) = H(Y) - H(Y|X)

I(X;Y) = H(Y) - PX(x)H(Y|X = x)

I(X;Y) = H(Y) - (PX(0)H(Y|X = 0) + PX(1)H(Y|X = 1)

I(X;Y) = H(Y) - Hb()

I(X;Y) ≤ 1 - Hb() bits Considerando que Y é uma variável aleatória. A igualdade I(X;Y) = 1 - Hb() ocorre quando Y é uniforme e para isso, X também deve ser uniforme. Então a capacidade do canal binário simétrico pode ser representada da seguinte forma:

C = 1 - Hb() bits

Figura 1 Informação mútua no BSC

E a distribuição de entrada atingida é:

px(0) = px(1) = 1/2

Alternativamente, podemos expressar I(X;Y) como:

I(X;Y) = - ((1-ε) + (1- )ε) ((1-ε)+(1-)ε) - (ε+ (1- )(1-ε))(ε+ (1-ε)(1- )) + (1-ε) (1-ε) + ε ε

Maximizando a quantidade acima no intervalo entre 0 e 1, obtemos o valor ótimo = 1/2, o que está de acordo com a capacidade do canal.

A figura 1 mostra o gráfico da informação mútua versus se relacionando com três diferentes valores da probabilidade de erro ε. Como esperado, o valor de pico de cada curva ocorre quando = 1/2.

Figura 2 Capacidade do BSC

A figura 2, por sua vez, mostra a capacidade C versus a probabilidade de erro ε . Observa-se que a maior capacidade

ocorre quando ε = 1 ou ε = 0, e é minima quando ε = 1/2. É interessante notar que, no caso em que ε = 1, basta trocar todos os bits no receptor, assim os bits serão recuperados sem erro. Ou seja, do ponto de vista das comunicações, para canais binários, um canal que nunca comete um erro (ε = 1) e um canal que sempre comete erros (ε = 0) são igualmente bons. Já no caso em que ε = 1/2, a saída do canal é independente da entrada, e nenhuma informação pode ser transmitida por ele.