He estado viendo que gráficas como la HD 5750-70 o las GTS440-50 trabajan con un ancho de 128 bits, en cambio una tarjeta de hace tiempo como lo es la 9800 GT (de nvidia), trabaja a 256 bits.
Alguien podría explicarme que influencia tiene eso a la hora de la práctica? ._. es que no lo comprendo
Y tema aparte, he estado leyendo por googlelandia comparaciones de la HD5750 y la GTS450, donde la mayor parte dice que ésta última (450) compite con la 5770 de ATI, quizá el precio respecto a la 5750 se encarezca un poco, desconozco hasta que punto puede competir con ellas, pero hay un dato que no comprendo y es el siguiente:
ATI 5750:
http://www.powercolor.com/es/products_f ... cificationGPU: 700 Mhz
Memorias: 4600 Mhz
NVIDIA GTS450 1GB:
http://www.zotac.com/index.php?option=c ... 25&lang=esGPU: 810 Mhz
Memorias: 3608 Mhz
El hecho de que el GPU de nvidia vaya "algo" más rápido que el de ATI, e incluso que el hecho de que sus memorias trabajen cerca de 1 Ghz menos, hacen a pesar de ello que la nvidia tenga "un mínimo" mejor rendimiento que la de ATI?
¿Alguien podría explicarme por encima, para poder entenderlo, cómo afecta esa diferencia de velocidades a los rendimientos finales?.
Muchas gracias y un saludo