por
pobrecito hablador
el Miércoles, 17 Septiembre de 2008, 14:16h
(#1082770)
Eso sería un paso atrás, ¿me estas diciendo que se va a volver a establecer pixel a pixel desde la CPU? deberías pensar en el enorme coste que conlleva a nivel de bus, la acumulación de retardos, etc...
Esa misma limitación existe en la GPU. Si pones el sistema de memoria de la GPU para la CPU (que es lo que pasa poco a poco. las tecnologías de memoria gráfica se van pasando a memoria principal) no solo te encuentras en una situación como la de la GPU (tanto buena como mala), además te ahorras el trajín de datos de memoria principal a memoria de vídeo, que es un cuello de botella MUY importante.
Otra cosa muy diferente sería el dotar de mayor flexibilidad a las GPUs para que realicen cálculos mas complejos.
Pero vamos a ver. No es solo que a las GPUs se les esté dotando de más flexibilidad, es que a las CPU se les está dotando de más potencia de cómputo de la forma que tiene la potencia de cómputo de una GPU (a base de paralelismo). Es decir, que se están convirtiendo en lo mismo. Si la cosa sigue así, la diferencia entre la GPU y la CPU será el socket donde la pinches.
Larrabee es otro experimento de Intel para entrar en el mercado ya que su solución actual se ha mostrado muy limitada, habrá que esperar a que esté en el mercado el engendro.
Esa es tu opinión, que no comparten los expertos en arquitectura y tecnología (que dicen que es la única manera de seguir subiendo la potencia de los micros según se reduce la escala de integración). Ya veremos a ver qué pasa...
Re:No creo
(Puntos:0)Esa misma limitación existe en la GPU. Si pones el sistema de memoria de la GPU para la CPU (que es lo que pasa poco a poco. las tecnologías de memoria gráfica se van pasando a memoria principal) no solo te encuentras en una situación como la de la GPU (tanto buena como mala), además te ahorras el trajín de datos de memoria principal a memoria de vídeo, que es un cuello de botella MUY importante.
Otra cosa muy diferente sería el dotar de mayor flexibilidad a las GPUs para que realicen cálculos mas complejos.
Pero vamos a ver. No es solo que a las GPUs se les esté dotando de más flexibilidad, es que a las CPU se les está dotando de más potencia de cómputo de la forma que tiene la potencia de cómputo de una GPU (a base de paralelismo). Es decir, que se están convirtiendo en lo mismo. Si la cosa sigue así, la diferencia entre la GPU y la CPU será el socket donde la pinches.
Larrabee es otro experimento de Intel para entrar en el mercado ya que su solución actual se ha mostrado muy limitada, habrá que esperar a que esté en el mercado el engendro.
Esa es tu opinión, que no comparten los expertos en arquitectura y tecnología (que dicen que es la única manera de seguir subiendo la potencia de los micros según se reduce la escala de integración). Ya veremos a ver qué pasa...