Cada micro tiene un cacho lleno de transistores que antiguamente se llamaba FPU (Floating Point Unit) y estaba en un chip separado. ¿Por qué no dejarse de tonterías como integrar la GPU y coger prestado parte del diseño de la GPU para meejorar la FPU?
Por otra parte, integrar la GPU lleva a una serie de consecuencias casi inevitables:
- AMD (ex-ATI) y nVidia tienen diferente manera de hacer las cosas en sus GPUs. Probablemente un procesador AMD-ATI no pueda ejecutar código generado para Intel-nVidia o Intel-Intel. Probablemente eso conduzca a todo tipo de situaciones divertidas para los usuarios de estas CPUs.
- Si metes la GPU dentro del micro, necesitarás memoria muy rápida alrededor del micro. Que las memorias más habituales en tarjetas gráficas sean DDR3 no es casualidad.
- Al margen de que desactivar esa GPU en caso de querer actualizar puede que sea menos trivial que en el caso de una integrada en placa.
- Quizás se produzca una especie de desaceleración en los requerimientos de los juegos. Es decir, si el usuario no puede cambiar fácilmente de tarjeta, es posible que los juegos no pidan cada vez más gráfica. Esto puede ser bueno para el usuario (juegos más optimizados) o malo (cambio más frecuente de CPU).
- Lo bueno es que la comunicación CPU y GPU debería ser mucho más rápida.
-- I have traveled across the universe and through the years to find Her.
Sometimes going all the way is just a start...
Pues yo lo veo util en el sentido de los ordenadores portatiles, porque seguramente el incluirlo en el mismo chip aumente el ahorro de energía y alargara los tiempos de batería.
zup dijo: "- AMD (ex-ATI) y nVidia tienen diferente manera de hacer las cosas en sus GPUs. Probablemente un procesador AMD-ATI no pueda ejecutar código generado para Intel-nVidia o Intel-Intel. Probablemente eso conduzca a todo tipo de situaciones divertidas para los usuarios de estas CPUs."
Pues ya me dirás tu que bibliotecas usas para la tarjeta, yo y algunos principalmente OpenGL no me (nos) queda otra, otros OpenGL y más de vez en cuando Direct3D. Y me da igual que sea una gráfica de intel, ati/amd, nvidia... El que se come la cabeza es el programador haciendo un driver para cada una.
Con esto quiero decir que a nivel de usuario que es el que comentas tu pues ningún problema, a nivel programador pues vaya hacer un compilador específico para cada uno, etc...
Lo que tiene sentido es tener una "GPU" dedicada a calcular la física de los juegos/simulaciones, y tiene sentido tenerla lo más cerca posible de la CPU. No creo que las tarjetas gráficas vayan a desaparecer, simplemente no aparecerán tarjetas de física, ni hará falta restar rendimiento de la gráfica para acelerar física.
¿Usar el diseño de la GPU para mejorar la FPU? Las GPU no son más potentes porque estén mejor diseñadas, sino porque usan paralelismo masivo. Estoy seguro que la FPU de un Athlon 64 es más potente que un núcleo de una GeForce 8800 GTX... pero la GeForce tiene 128 núcleos.
Lo que de verdad consume transistores es la caché, y de eso las GPU no tienen, por lo que toda esa circuitería la pueden dedicar a meter más núcleos.
No le veo mucho sentido...
(Puntos:3, Informativo)( http://zup.madpage.com/blof )
Por otra parte, integrar la GPU lleva a una serie de consecuencias casi inevitables:
- AMD (ex-ATI) y nVidia tienen diferente manera de hacer las cosas en sus GPUs. Probablemente un procesador AMD-ATI no pueda ejecutar código generado para Intel-nVidia o Intel-Intel. Probablemente eso conduzca a todo tipo de situaciones divertidas para los usuarios de estas CPUs.
- Si metes la GPU dentro del micro, necesitarás memoria muy rápida alrededor del micro. Que las memorias más habituales en tarjetas gráficas sean DDR3 no es casualidad.
- Al margen de que desactivar esa GPU en caso de querer actualizar puede que sea menos trivial que en el caso de una integrada en placa.
- Quizás se produzca una especie de desaceleración en los requerimientos de los juegos. Es decir, si el usuario no puede cambiar fácilmente de tarjeta, es posible que los juegos no pidan cada vez más gráfica. Esto puede ser bueno para el usuario (juegos más optimizados) o malo (cambio más frecuente de CPU).
- Lo bueno es que la comunicación CPU y GPU debería ser mucho más rápida.
I have traveled across the universe and through the years to find Her. Sometimes going all the way is just a start...
Re:No le veo mucho sentido...
(Puntos:2, Interesante)( http://laesquinafriki.blogspot.com/ | Última bitácora: Lunes, 16 Octubre de 2006, 18:19h )
Re:No le veo mucho sentido...
(Puntos:1)( http://warsaw.sytes.net/ | Última bitácora: Jueves, 28 Enero de 2010, 13:24h )
Pues ya me dirás tu que bibliotecas usas para la tarjeta, yo y algunos principalmente OpenGL no me (nos) queda otra, otros OpenGL y más de vez en cuando Direct3D. Y me da igual que sea una gráfica de intel, ati/amd, nvidia... El que se come la cabeza es el programador haciendo un driver para cada una.
Con esto quiero decir que a nivel de usuario que es el que comentas tu pues ningún problema, a nivel programador pues vaya hacer un compilador específico para cada uno, etc...
Re:No le veo mucho sentido...
(Puntos:2)( http://barrapunto.com/ | Última bitácora: Miércoles, 28 Diciembre de 2005, 12:49h )
Re:No le veo mucho sentido...
(Puntos:1)( http://barrapunto.com/ | Última bitácora: Viernes, 17 Noviembre de 2006, 23:39h )
Lo que de verdad consume transistores es la caché, y de eso las GPU no tienen, por lo que toda esa circuitería la pueden dedicar a meter más núcleos.
Ph'nglui mglw'nafh Cthulhu R'lyeh wgah'nagl fhtagn!