Se me ocurrio lo siguiente, a ver si es una pelotudes o no.
Si supuestamente cualquier numero por mas grande que existe, esta en PI, yo podria transformar un archivo en un inmenso numero, buscar ese numero en PI y poner como archivo "comprimido" simplemente la posicion donde se encuentra mi numero (o sea, mi archivo) y el tamaño original (para saber hasta donde tiene que leer en pi).
O sea, si yo tengo el archivo HolaMundo.bmp que ocupa 10 Megas, transformo esos 10 Megas en un solo numero (me quedaria un numero de 120 millones de aprox.), y pongo como resultado final, la posicion donde se encuentra ese numero. Supongo que ese numero sera inmenso, pero seguramente mucho mas chico que el numero inicial.
Cierto, necesitarías únicamente la posición del número, y la longitud del mismo, sí. El problema es que necesitarías una base de datos tan gigantesca sobre la que hacer la búsqueda que no creo que compensara :-)
Y si la búsqueda la hicieras en unos servidores distribuidos en internet, tendrías que descargarte a tu ordenador el trozo de pi correspondiente a tu fichero, con lo cual seguirías necesitando descargar los 10 megas del fichero.
Como explicación de lo infinito que llega a ser Pi está muy bien, pero sigue sin solucionar el problema del almacenamiento ;-)
Por no hablar de que necesitarías un diccionario considerablemente grande (ej, tropecientos decimales de PI) para poder buscar el número al comprimirlo. Sí, sí, descomprimir es saltar a cierta posición, pero comprimir sería buscar la secuencia dentro del número. Y nadie te garantiza que vaya a estar dentro de los primeros doscientos mil millones de posiciones.
Aparte del tiempo que necesitarías para encontrar el match exacto (suerte, machote), si metes tu diccionario (PI) en BCD empaquetado, ocuparía igual (tomando por ejemplo mi número anterior) 2 nos./byte = 100·10^9 bytes, unos 93 gigas. Sí, sí, tú pasas un archivo de 200KB a un número de 12 cifras, pero has muerto antes.
Me recuerda a un relato, de la que ahora no encuentro el enlace, ni recuerdo el autor que resumiendo decía:
Un extraterrestre llega a la tierra y tras un intercambio de pareceres y buena voluntad se le da toda la información (cultural, científica...) de la tierra en forma de enciclopedias, música, vídeos, etc. Cómo lógicamente no le cabe todo en la nave la codifica a un único número extremadamente grande que almacena realizando un marca precisa a nivel atómico en una vara de metal, una vez en su planeta recuperar el número supone medir la distancia entre el inicio de la vara y la marca realizada.
Eso sí, espero que tenga un buen algoritmo de redundancia ;)
En octubre de 2003 se mencionó esa idea en Investigación y Ciencia. No sólo el número puede ser mayor que el inicial, es que su complejidad será probablemente mucho mayor. Vamos, que normalmente será más grande y menos compresible.
--
--
Escriba un millón de veces "no volveré a derrochar ancho de banda"
"El 20 de septiembre de 1999, Kanada y Takahashi consiguen 206.158.430.000 decimales. Hacen dos cálculos independientes. El programa principal utiliza el algoritmo de Gauss-Legendre (Brent-Salamin) y tarda un total de 37h 21m 04s. El programa de verificación utiliza el algoritmo de convergencia de cuarto orden de Borwein y tarda un total de 46h 07m 10s. El ordenador es un Hitachi SR8000 de la Universidad de Tokio, con 128 microprocesadores y una memoria principal superior a 800 GB. La velocidad de proceso para cada uno de los microprocesadores puede alcanzar los 8.000.000.000 de FLOPs (8.000 megaflops, 8*109 operaciones de coma flotante por segundo)"
--
Si a una cucaracha le cortas la cabeza se muere de hambre
comprimir con PI
(Puntos:2)( http://grimpi.blogspot.com/ )
O sea, si yo tengo el archivo HolaMundo.bmp que ocupa 10 Megas, transformo esos 10 Megas en un solo numero (me quedaria un numero de 120 millones de aprox.), y pongo como resultado final, la posicion donde se encuentra ese numero. Supongo que ese numero sera inmenso, pero seguramente mucho mas chico que el numero inicial.
Re:comprimir con PI
(Puntos:2)( http://barrapunto.com/ )
Y si la búsqueda la hicieras en unos servidores distribuidos en internet, tendrías que descargarte a tu ordenador el trozo de pi correspondiente a tu fichero, con lo cual seguirías necesitando descargar los 10 megas del fichero.
Como explicación de lo infinito que llega a ser Pi está muy bien, pero sigue sin solucionar el problema del almacenamiento ;-)
Re:comprimir con PI
(Puntos:2)( Última bitácora: Miércoles, 10 Marzo de 2010, 15:16h )
omnia sunt communia
Re:comprimir con PI
(Puntos:1)( http://alx5000.net/ | Última bitácora: Lunes, 22 Mayo de 2006, 13:27h )
Por no hablar de que necesitarías un diccionario considerablemente grande (ej, tropecientos decimales de PI) para poder buscar el número al comprimirlo. Sí, sí, descomprimir es saltar a cierta posición, pero comprimir sería buscar la secuencia dentro del número. Y nadie te garantiza que vaya a estar dentro de los primeros doscientos mil millones de posiciones.
Aparte del tiempo que necesitarías para encontrar el match exacto (suerte, machote), si metes tu diccionario (PI) en BCD empaquetado, ocuparía igual (tomando por ejemplo mi número anterior) 2 nos./byte = 100·10^9 bytes, unos 93 gigas. Sí, sí, tú pasas un archivo de 200KB a un número de 12 cifras, pero has muerto antes.
Si me equivoco, /slap alx5000.
Re:comprimir con PI
(Puntos:1)( http://barrapunto.com/ | Última bitácora: Jueves, 06 Abril de 2006, 22:32h )
Un extraterrestre llega a la tierra y tras un intercambio de pareceres y buena voluntad se le da toda la información (cultural, científica...) de la tierra en forma de enciclopedias, música, vídeos, etc. Cómo lógicamente no le cabe todo en la nave la codifica a un único número extremadamente grande que almacena realizando un marca precisa a nivel atómico en una vara de metal, una vez en su planeta recuperar el número supone medir la distancia entre el inicio de la vara y la marca realizada.
Eso sí, espero que tenga un buen algoritmo de redundancia ;)
La Biblioteca de Babel
(Puntos:2)-- Escriba un millón de veces "no volveré a derrochar ancho de banda"
Re:comprimir con PI
(Puntos:2)( http://indefir.blogspot.com/ )
"El 20 de septiembre de 1999, Kanada y Takahashi consiguen 206.158.430.000 decimales. Hacen dos cálculos independientes. El programa principal utiliza el algoritmo de Gauss-Legendre (Brent-Salamin) y tarda un total de 37h 21m 04s. El programa de verificación utiliza el algoritmo de convergencia de cuarto orden de Borwein y tarda un total de 46h 07m 10s. El ordenador es un Hitachi SR8000 de la Universidad de Tokio, con 128 microprocesadores y una memoria principal superior a 800 GB. La velocidad de proceso para cada uno de los microprocesadores puede alcanzar los 8.000.000.000 de FLOPs (8.000 megaflops, 8*109 operaciones de coma flotante por segundo)"
Si a una cucaracha le cortas la cabeza se muere de hambre