Historias
Slashboxes
Comentarios
 
Este hilo ha sido archivado. No pueden publicarse nuevos comentarios.
Mostrar opciones Umbral:
Y recuerda: Los comentarios que siguen pertenecen a las personas que los han enviado. No somos responsables de los mismos.
  • por pobrecito hablador el Lunes, 24 Noviembre de 2008, 16:15h (#1102345)
    Pues por la cantidad de gente que se didica a retocar fotografías y montar sus propios videos caseros no estaría tan seguro. La parelización puede aplicarse a los algoritmos que se utilizan en esos menesteres. Y dada la popularidad de YouTube o Flirk, puedes ver que hay mucha gente aficionada dedicada a videos caseros y retoque fotográfico.

    Yo soy aficionado a la animación 3D. Hasta hace nada iba tirando con un K8 a 1.2GHz, y me servía perfectamente (hasta que los drivers de nvidia dejaron de funcionar). Por mucho montaje aficionado y retoque fotográfico aficionado que haya (en realidad el retoque no requiere de tanta potencia sostenida, solo de picos), sigue sin ser necesario. Y de todos modos, por cada usuario que ves con una cuenta en flickr que retoca sus fotos, o una cuenta en youtube y que sube material propio, tienes otros 99 (más, en realidad) que no hacen nada de eso. Pero es que incluso para ese usuario que sí hace algo más exigente, hay potencia de sobra en un solo núcleo, 2 máximo. Yo he renderizado y montado vídeos en máquinas a 150Mhz, y eso era a todas luces insuficiente. Ahora sobra, en serio.

    He tenido tu misma opinión muchos años: que sobraba potencia por todos lados, que la gente no necesitaba n Gigas de RAM, micros a taintos Ghz, discos duros, pero me doy cuenta que la evolución del software en herramientas y lenguajes o la posibilidad de la generación de contenido doméstico. jamás hubiera sido posible sin el aumento de potencia de los micros.

    Yo no he dicho que estemos sobrados de RAM o de HD. Con la RAM sucede una cosa muy curiosa: es muchísimo más rápida que un HDD. Si podemos tener TODO en RAM mientras el PC funciona, perfecto. Así que cuanta más, mejor. Con el HDD tres cuartos de lo mismo. Es un sistema de almacenamiento, cuanto más haya mejor. Si no tienes que borrar nada nunca, pues perfecto. Pero el procesador es una cosa diferente. El procesador está ahí para una tarea específica. Una vez es capaz de realizarla lo suficientemente deprisa, no necesitas más. Mucho menos necesitas 16.

    Con todo el contenido que se genera ahora por los usuarios, se sigue sin utilizar más de un núcleo. ¿Cuántos se quejan de que no pueden trabajar bien porque les va muy lento el PC? Hoy en día, yo no conozco a nadie. Y eso que en mi entorno somos casi todos informáticos con aficiones como los videojuegos, animación 3D, edición de vídeo y retoque fotográfico. Alguno se queja de la RAM, porque edita fotos compuestas de 250MB y cuando se pone a pasarle filtros y demás se le come toda la RAM. Y la RAM es lenta, muyyyy lenta. Vamos, que no son usuarios típicos y no parecen acuciados por una necesidad imperiosa de potencia de cálculo (que es lo que ofrece un micro con muchos cores).

    Intel apostó por lo que comentas con la arquitectura Netburst: un micro de un sólo núcleo que fuera capaz de subir en frecuencia todo lo que pudiera, pero le salió el tiro por la culata, reculó y se fue hacía el Pentium-M desde donde ha ido evolucionando hasta i7.

    En realidad se fue hasta el Pentium III, de donde ha evolucionado Core2 y de ahí i7. Y el tiro por la culata le salió porque no consiguió que el micro fuese más rápido, no porque ya no le interesase que fuese así. Si te digo que les preguntes a los de Intel y AMD es porque yo ya he oído sus respuestas (afirmaciones en conferencias, en realidad), y son esas: "hacemos micros con más y más núcleos porque no podemos hacer micos con menos núcleos pero más rápidos". Les interesaba hacer un micro (mononúcleo) cuanto más potente mejor, pero no eran capaces de gestionar todo ese calor y no escalaba como ellos pensaban. Y con eso y todo también les sobraban transistores. Las opciones son claras: más núcleos y más cache. La potencia aumenta, solo que en paralelo.

    Pero esto es muy importante: no abandonaron esa línea porque fuese peor, sino porque era tecnológicamente inviable. Lo ideal sería que esos transistores que usan ahora para añadir núcleos se pudiesen utilizar en que un único núcleo fuese mucho más potente, es solo que si hay una forma de hacer eso, aún no han dado con ella.

    [ Padre ]