Historias
Slashboxes
Comentarios
 

Login Barrapunto

Login

[ Crear nueva cuenta ]

BlueGene/L el Top1 de Top500.org

editada por rvr el 17 de Enero 2005, 18:46h   Printer-friendly   Email story
desde el dept. blue-jean
excelance nos cuenta: «He escrito un informe sobre la arquitectura de BlueGene/L (PDF), el supercomputador que actualmente ocupa el primer puesto de Top500.org, donde se listan los supercomputadores más potentes del mundo. Esta máquina está siendo desarrollada por IBM en colaboración del Departamento de Energía del Gobierno de los EEUU (cómo no). No guarda mucha relación (a nivel arquitectura) con el supercomputador español, que ocupa el cuarto puesto, pero siendo las dos de IBM, algo tendrán que ver. ¿Qué opináis de todo este rollo de la supercomputación? ¿Hacen falta este tipo de máquinas?».

Este hilo ha sido archivado. No pueden publicarse nuevos comentarios.
Mostrar opciones Umbral:
Y recuerda: Los comentarios que siguen pertenecen a las personas que los han enviado. No somos responsables de los mismos.
  • Claro que hacen falta

    (Puntos:3, Interesante)
    por ElPeazoPerro (16702) el Lunes, 17 Enero de 2005, 19:07h (#424323)
    ( http://todoa99.blogspot.com/ | Última bitácora: Lunes, 20 Abril de 2009, 22:41h )
    A veces, la gente se piensa que los supercomputadores se usan para jugar al Doom III. Existen cientos de aplicaciones de simulación, cálculo, mineria de datos, etc etc etc... que requieren de un buen sistema para poder hacer los cálculos.
    No es cuestión de que se haga en un minuto un cálculo que en un PC llevaría 2 horas. Es cuestión de calcular en días/semanas/meses lo que de otra manera nos llevaría varios años.
    Un ejemplo, hace un año oí que IBM estaba desarrollando un supercomputador de 1 PetaFLOP (no se si tendría algo que ver con BlueGene), para aplicaciones farmaceuticas, en las que se predeciría, de manera APROXIMADA, el pliegue de varias proteinas. Lo asombroso es que tardaría en hacer los cálculos 6 meses para cada proteína a simular. ¿Os imaginais esto en un simple grid de PCs?
    • PetaFLOP

      (Puntos:4, Divertido)
      por pobrecito hablador el Lunes, 17 Enero de 2005, 19:13h (#424333)
      Si si, en que estaras pensando tu con lo del petaflop. ¿En un cañamon de maria que lo pones en el microondas para hacerte palomitas?. Ya te veo yo a ti, ¡¡¡no te puedes imaginar la de cosas que se ven con un petaflop!!!. ¡¡Huuuuh, que viajeeeee!!...
      [ Padre ]
    • Re:Claro que hacen falta

      (Puntos:2, Interesante)
      por excelance (16694) el Lunes, 17 Enero de 2005, 20:21h (#424378)
      Veo que no te has mirado el informe... es igual
      Como dices, IBM está desarrollando el ordenador de escala PetaFlop, todo dentro del proyecto BlueGene. Éste es el segundo de la serie (primero fue el BlueGene/Cyclops), y el objetivo es el BlueGene/P (P de Petaflop)
      El proyecto [ibm.com] en sí siempre lo venden como que va a ser para estudiar el pliegue de proteinas (y de ahí lo de "Gene"), pero sabes donde está el BG/L ahora? En el "Lawrence Livermore National Laboratory" [llnl.gov], que pertenece al "Departamente of Energy", en particular a la "National Nuclear Security Administration".
      Como siempre, todo va para lo mismo. Investigación militar. Porque me parece a mi que la gente de la agencia de seguridad nuclear no se va a dedicar a mirar las proteinas...
      Otra cosa, yo preferiría que se hicieran más esfuerzos en Grid, ya que la tecnología es un poco más "asequible", no como estos bichos, que a ver quien los paga...
      Mira el ejemplo del SETI (comentado más abajo), la cosa funciona, pero claro, como no interesa, fondos los mínimos.
      [ Padre ]
      • por ElPeazoPerro (16702) el Lunes, 17 Enero de 2005, 22:36h (#424495)
        ( http://todoa99.blogspot.com/ | Última bitácora: Lunes, 20 Abril de 2009, 22:41h )
        De todas formas, no creo que todos los problemas tengan una solución "Grid". Es decir, primero hay que dividir el problema en subproblemas, y no todos se pueden dividir en cientos de miles de tareas, como es el caso de Seti que, al fin y al cabo, se trata de analizar por separado las toneladas de datos que sus antenas captan.
        Hay otros problemas que, al dividirlos en subtareas, estas tienen dependencias de otras, y por tanto, no se pueden dividir tan fácilmente, por lo que no son problemas aconsejables para un sistema tan distribuido como el de Seti sino para un supercomputador.
        [ Padre ]
      • por excelance (16694) el Martes, 18 Enero de 2005, 08:15h (#424682)
        Hombre, cluster, lo que se dice cluster, BlueGene no lo es.

        Esta gente lo llama "arquitectura celular", porque cada uno de los nodos es más tonto que un bocao en la polla (corren un microkernel monousuario, monotarea). Esto ya lo hizo en su día Thinking Machines [wikipedia.org], con resultados no muy buenos.

        Así que cluster no es la única forma de construir máquina de paralelismo masivo. Por cierto, MareNostrum es un cluster de verdad.
        [ Padre ]
      • 2 respuestas por debajo de tu umbral de lectura actual.
  • ¿Que si hacen falta?

    (Puntos:2, Inspirado)
    por pobrecito hablador el Lunes, 17 Enero de 2005, 20:00h (#424365)
    Esas máquinas cuestan muchos millones. ¿De verdad crees que las construirian "si no hace falta"? Los que están detrás de estos asuntos tienen razones para hacer lo que hacen, al margen de lo que opinemos nadie aquí
  • por Biolator (15430) el Martes, 18 Enero de 2005, 00:09h (#424570)
    ( Última bitácora: Martes, 14 Marzo de 2006, 20:33h )
    Pero si el mareNostrum todavia no está funcionando, no?? al menos por aqui solo habla de acuerdo y unos planos muy bonitos [bsc.org.es] pero creo que todavia no está completa.
    Es más creo que todavia no está funcionando, seguro que cuando empieze a funcionar ya estamos por el 50 o más para allá, lo que de verdad tiene mérito es lo del Earth Simulator, ahora la 3ª (no sé si las otras dos funcionaran todavia) que aguanto unos 3 o 4 años en el primer puesto.
    En cuanto a lo que se ha hablado de gribd vs cluster, el problema está en la cantidad de datos que se manejan y en el problema de dividirlo en pequeños problemas (cómo han comentado), eso implica que para resolver el plegado de la proteina no se puedan hacer partes distintas en distintos ordenadores, es necesario el acceso a muchisima informacion, que no se puede enviar por ADSL.
    Las redes de los cluster de estos superordenadores son muy complejas y su diseño es específico. No es comparable con el SETI aunque éste proyecto también es muy interesante y potente , pero a su manera.
  • por Erikdv (17248) el Lunes, 17 Enero de 2005, 18:54h (#424311)
    ( Última bitácora: Jueves, 26 Enero de 2006, 16:52h )
    deberias haber escrito eso en el de "w3c predica en el desierto"
    [ Padre ]
  • 9 respuestas por debajo de tu umbral de lectura actual.