Ya se hacía, hace mucho tiempo, cuando las tarjetas tenían un cauce fijo. No seguían el estándar del IEEE y apenas hacían los cálculos con 16 bits de precisión. De hecho ATI (ahora AMD) tardó mucho tiempo en tener una precisión mayor de 24 bits en sus tipos de 32, no digamos ya el cumplir el estándar del IEEE.
Hoy día la situación ha cambiado, debido a la sofisticación de los algoritmos y la apertura al mundo HPC con tecnologías como CUDA, CTM...
La idea de sacrificar precisión por velocidad es tan antigua como los computadores Cray, hay muchas anécdotas de las peripecias debido a estos temas;-)
Re:Mmmm...
(Puntos:2)