por
pobrecito hablador
el Viernes, 31 Marzo de 2006, 08:57h
(#720963)
haber, tu metes una operacion que suma dos numeros en coma flotante en una CPU, y en una gpu metes una operacion que suma dos TABLAS de datos.
pasan tres ticks del reloj de la GPU, y te termina el calculo. acaba de sumar 2000 numeros.
tiempo despues acaba de trabajar la CPU, ha necesitado 11 ticks de su reloj.
¿Quien es mas rapido? la CPU.
¿Quien ha echo mas trabajo? la GPU brutalmente mas trabajo.
la cuestion es, ¿puede hacer un programa sencillo en C y que me haga los calculos con la GPU con ese nivel de paralelismo? (en la mayor parte de los casos la respuesta es no, pero es posible y seguramente hay librerias que intentan facilitar esto. Hay otras consideraciones aparte de la fuerta bruta.) No. Entonces usas de todos modos CPUs.
por
pobrecito hablador
el Viernes, 31 Marzo de 2006, 09:35h
(#720975)
Aqui lo tienes [osu.edu]
Es de un profesor mío de la universidad que investiga justamente sobre como aprovechar toda esa potencia de las GPUs sobre una aplicación de computación intensiva propósito general. En la grafica comparativa (Figura 3) se ve como una triste Geforce 5900 se come con patatas a un pentium 4, no quiero ni pensar lo q puede hacer una X1900 con esa misma aplicación.
El problema está en como traducir un problema típico de programación con su estructura de datos y demás en vertices, operaciones con shaders, etc.. Como ejemplo un código de 5 lineas de C llegó a tardar 1 mes en traducirlo a algo q se tragara la GPU. Y es q ahí se echan en falta algunas herramientas, alguna ayuda a nivel de API y de drivers para este propósito.
Un saludo
Re:Próximamente en las mejores pantallas
(Puntos:1, Informativo)pasan tres ticks del reloj de la GPU, y te termina el calculo. acaba de sumar 2000 numeros.
tiempo despues acaba de trabajar la CPU, ha necesitado 11 ticks de su reloj.
¿Quien es mas rapido? la CPU.
¿Quien ha echo mas trabajo? la GPU brutalmente mas trabajo.
la cuestion es, ¿puede hacer un programa sencillo en C y que me haga los calculos con la GPU con ese nivel de paralelismo? (en la mayor parte de los casos la respuesta es no, pero es posible y seguramente hay librerias que intentan facilitar esto. Hay otras consideraciones aparte de la fuerta bruta.) No. Entonces usas de todos modos CPUs.
Re:Próximamente en las mejores pantallas
(Puntos:1, Interesante)El problema está en como traducir un problema típico de programación con su estructura de datos y demás en vertices, operaciones con shaders, etc.. Como ejemplo un código de 5 lineas de C llegó a tardar 1 mes en traducirlo a algo q se tragara la GPU. Y es q ahí se echan en falta algunas herramientas, alguna ayuda a nivel de API y de drivers para este propósito. Un saludo