Quantidade de informações Solução

ETAPA 0: Resumo de pré-cálculo
Fórmula Usada
Quantidade de informações = log2(1/Probabilidade de ocorrência)
I = log2(1/Pk)
Esta fórmula usa 1 Funções, 2 Variáveis
Funções usadas
log2 - O logaritmo binário (ou log base 2) é a potência à qual o número 2 deve ser elevado para obter o valor n., log2(Number)
Variáveis Usadas
Quantidade de informações - (Medido em Pedaço) - A quantidade de informação transmitida por uma mensagem depende da probabilidade da mensagem ser transmitida.
Probabilidade de ocorrência - A probabilidade de ocorrência é a probabilidade de um evento ser definida como a razão entre o número de resultados favoráveis e o número total de resultados possíveis.
ETAPA 1: Converter entrada (s) em unidade de base
Probabilidade de ocorrência: 0.25 --> Nenhuma conversão necessária
ETAPA 2: Avalie a Fórmula
Substituindo valores de entrada na fórmula
I = log2(1/Pk) --> log2(1/0.25)
Avaliando ... ...
I = 2
PASSO 3: Converta o Resultado em Unidade de Saída
2 Pedaço --> Nenhuma conversão necessária
RESPOSTA FINAL
2 Pedaço <-- Quantidade de informações
(Cálculo concluído em 00.020 segundos)

Créditos

Creator Image
Criado por Bhuvana
BMS faculdade de engenharia (BMSCE), Benagluru
Bhuvana criou esta calculadora e mais 25+ calculadoras!
Verifier Image
Verificado por Parminder Singh
Universidade de Chandigarh (CU), Punjab
Parminder Singh verificou esta calculadora e mais 600+ calculadoras!

10+ Canais Contínuos Calculadoras

Densidade Espectral de Potência de Ruído do Canal Gaussiano
​ Vai Densidade Espectral de Potência de Ruído = (2*Largura de banda do canal)/Potência de Ruído do Canal Gaussiano
Potência de Ruído do Canal Gaussiano
​ Vai Potência de Ruído do Canal Gaussiano = 2*Densidade Espectral de Potência de Ruído*Largura de banda do canal
Capacidade do canal
​ Vai Capacidade do Canal = Largura de banda do canal*log2(1+A relação sinal-ruído)
Transferência de dados
​ Vai Transferência de dados = (Tamanho do arquivo*8)/Velocidade de transferência
Quantidade de informações
​ Vai Quantidade de informações = log2(1/Probabilidade de ocorrência)
Nª Entropia de Extensão
​ Vai Nª Entropia de Extensão = Enésimo Fonte*Entropia
Taxa de Informação
​ Vai Taxa de informação = Taxa de símbolo*Entropia
Taxa de símbolo
​ Vai Taxa de símbolo = Taxa de informação/Entropia
Entropia Máxima
​ Vai Entropia Máxima = log2(Símbolo total)
Taxa Nyquist
​ Vai Taxa Nyquist = 2*Largura de banda do canal

Quantidade de informações Fórmula

Quantidade de informações = log2(1/Probabilidade de ocorrência)
I = log2(1/Pk)
Let Others Know
Facebook
Twitter
Reddit
LinkedIn
Email
WhatsApp
Copied!