Historias
Slashboxes
Comentarios
 
Este hilo ha sido archivado. No pueden publicarse nuevos comentarios.
Mostrar opciones Umbral:
Y recuerda: Los comentarios que siguen pertenecen a las personas que los han enviado. No somos responsables de los mismos.
  • Re:¿Entropia?

    (Puntos:2)
    por PiotR (1038) <piotrQUITAESTO@member.fsf.org> el Miércoles, 09 Junio de 2004, 23:59h (#312251)
    ( http://www.lartc.org | Última bitácora: Viernes, 06 Agosto de 2004, 13:07h )
    Es justo al revés. Pon todo tu disco duro lleno de ceros, (Entropía nula) y verás cuánta información tienes. Formalmente se define entropía como el valor esperado de la información, que es el logaritmo de la probabilidad de un suceso. H=E[I(X)] Para una variable aleatoria de bernoulli ( binaria, 1 o 0) la entropía es -P(1)*log2(P(1))-P(0)*log2(P(0))

    Si la cantidad de información es nula; o sea (P(1) = 1 y P(0) = 0) o viceversa, la entropía es cero también.
    --

    [ Padre ]
  • 1 respuesta por debajo de tu umbral de lectura actual.