Es justo al revés. Pon todo tu disco duro lleno de ceros, (Entropía nula) y verás cuánta información tienes. Formalmente se define entropía como el valor esperado de la información, que es el logaritmo de la probabilidad de un suceso. H=E[I(X)] Para una variable aleatoria de bernoulli ( binaria, 1 o 0) la entropía es -P(1)*log2(P(1))-P(0)*log2(P(0))
Si la cantidad de información es nula; o sea (P(1) = 1 y P(0) = 0) o viceversa, la entropía es cero también.
Re:¿Entropia?
(Puntos:2)( http://www.lartc.org | Última bitácora: Viernes, 06 Agosto de 2004, 13:07h )
Si la cantidad de información es nula; o sea (P(1) = 1 y P(0) = 0) o viceversa, la entropía es cero también.