por
pobrecito hablador
el Miércoles, 09 Junio de 2004, 16:48h
(#312123)
"Por lo tanto, si la entropía de un lenguaje es alta, significa que ese mismo programa se podría haber hecho en otro lenguaje con una cantidad de código menor, por lo tanto, la posibilidad de cometer fallos en el programa (que mas o menos es proporcional al número de lineas de código) disminuye."
Eso creo que se llama redundancia, no entropía. Cuando un mensaje no tiene redundancia, quiere decir que está codificado con una longitud no mucho mayor que su entropía
De echo he oído hablar de índice de redundancia de un lenguaje, pero nunca de índice de entropía
por
pobrecito hablador
el Jueves, 10 Junio de 2004, 02:09h
(#312278)
Si, la entropía es el nivel de desorden en un sistema, y por eso una alta entropía es buena.
Sí, en física sí. En teoría de la información la entropía de una fuente de información es la cantidad de información que proporciona (la fuente en sí o un símbolo de la misma). Se podría establecer alguna relación con el orden o el desorden, pero desde luego, son conceptualmente diferentes. Aún queda que expliques (según tu punto de vista) por qué es mejor una alta entropía.
Si la entropía de un lenguaje es baja, significa que el lenguaje está muy ordenado, o lo que es lo mismo, que ciertas estructuras de datos está ordenada con otra estructura.
Si la entropía de un lenguaje es baja significa que cada símbolo del lenguaje aporta poca información (en un lenguaje de programación la información al final se traduce en capacidad computacional). Además deberías aclarar qué coño es que "una estructura de datos esté ordenada con otra". Y también debemos recalcar que poco o nada tiene que ver el orden de una estructura de datos de un programa con el orden o la entropía (la que viene a cuento, no la que tú nombras) del programa fuente que la genera y/o usa. Se pueden hacer todas las combinaciones de código fuente (desordenado, compactado, extenso...) para generar estructuras de datos perfectamente ordenadas o caóticas.
Por lo tanto, si la entropía de un lenguaje es alta, significa que ese mismo programa se podría haber hecho en otro lenguaje con una cantidad de código menor, por lo tanto, la posibilidad de cometer fallos en el programa (que mas o menos es proporcional al número de lineas de código) disminuye.
Pero, tú sabes de qué coño hablas o sólo sueltas pajas mentales en códigos subóptimos? Si la entropía de un lenguaje es alta significa que con pocos símbolos tienes mucha información (capacidad computacional), luego tienes un lenguaje muy expresivo, una sola línea hace mil cosas (como las líneas esas siniestras que se ven escritas en Perl, que, aclaro que no sé Perl ni me llama, ni Dios entiende).
Y no sé si es peor que te creas lo que has dicho o que se lo haya creído el que te ha dado el +1.
Re:¿Entropia?
(Puntos:0)Eso creo que se llama redundancia, no entropía. Cuando un mensaje no tiene redundancia, quiere decir que está codificado con una longitud no mucho mayor que su entropía
De echo he oído hablar de índice de redundancia de un lenguaje, pero nunca de índice de entropía
Un saludo
Qué?!
(Puntos:0)Sí, en física sí. En teoría de la información la entropía de una fuente de información es la cantidad de información que proporciona (la fuente en sí o un símbolo de la misma). Se podría establecer alguna relación con el orden o el desorden, pero desde luego, son conceptualmente diferentes. Aún queda que expliques (según tu punto de vista) por qué es mejor una alta entropía.
Si la entropía de un lenguaje es baja, significa que el lenguaje está muy ordenado, o lo que es lo mismo, que ciertas estructuras de datos está ordenada con otra estructura.
Si la entropía de un lenguaje es baja significa que cada símbolo del lenguaje aporta poca información (en un lenguaje de programación la información al final se traduce en capacidad computacional). Además deberías aclarar qué coño es que "una estructura de datos esté ordenada con otra". Y también debemos recalcar que poco o nada tiene que ver el orden de una estructura de datos de un programa con el orden o la entropía (la que viene a cuento, no la que tú nombras) del programa fuente que la genera y/o usa. Se pueden hacer todas las combinaciones de código fuente (desordenado, compactado, extenso...) para generar estructuras de datos perfectamente ordenadas o caóticas.
Por lo tanto, si la entropía de un lenguaje es alta, significa que ese mismo programa se podría haber hecho en otro lenguaje con una cantidad de código menor, por lo tanto, la posibilidad de cometer fallos en el programa (que mas o menos es proporcional al número de lineas de código) disminuye.
Pero, tú sabes de qué coño hablas o sólo sueltas pajas mentales en códigos subóptimos? Si la entropía de un lenguaje es alta significa que con pocos símbolos tienes mucha información (capacidad computacional), luego tienes un lenguaje muy expresivo, una sola línea hace mil cosas (como las líneas esas siniestras que se ven escritas en Perl, que, aclaro que no sé Perl ni me llama, ni Dios entiende).
Y no sé si es peor que te creas lo que has dicho o que se lo haya creído el que te ha dado el +1.
Saludos y sin acritud.