Filtrar


Questões por página:
mostrar texto associado

A medida conjunta pode ser maior que a soma dependendo das distribuições de probabilidade de X e Y.

mostrar texto associado

Se, nas mensagens geradas, cada par de letras consecutivas (i, j = 1, ..., n) for considerado como um único símbolo, a entropia de Shannon associada a esses símbolos será o dobro da entropia de Shannon associada às letras (i = 1, ..., n).

mostrar texto associado

Assumindo-se que é correto afirmar que é possível construir representações binárias desse código utilizando-se, em média, menos de H bits por letra.

mostrar texto associado

Nesse caso,

mostrar texto associado

Se as probabilidades (i = 1, ..., n) forem todas iguais, então a quantidade média de bits requerida para representar cada letra do código será, no mínimo, 2log2(n) bits.