¿Que gráfica elegir?

Huolas!

Me han sugerido que plantee mis dudas aquí, así que vengo a daros la lata con mi indecisión xD
Me he leído el hilo de las gráficas y lo encontré algo desactualizado.
He intentado elegirla yo, pero con tantos datos como dan, y confusos, me lío.
Aclaro, soy fangirl de nVidia, no hay nada que hacer conmigo y ATI. Ya se que hay mejores, que son mas baratas... Me da igual, me gusta nV. [amor]

Tengo un Q6700 y aún tiro con una 8600 que estos días me da para bien poco. No juego mucho, ni a los últimos juegos, pero que me cueste sacarle FPS al WoW me parece el colmo. Aunque cuando juego, me gustaría que fuese bien o por lo menos aceptable. [sonrisa]

Tengo aproximadamente (A menos mejor, que la fuente tambien la tengo que cambiar xD) 150 euros para ello. No se si será tirar muy por lo alto, pero en principio buscaba 1 GB GDDR5, y supongo que entre las 2xx y las 4xx, me quedo con las segundas. De GT, GTS, GS, GTX, ni idea.

Cada vez que miro una gráfica (Las miro por APP, que tengo uno al lado de casa, aunque luego lo pille por PCComponentes o donde sea) en los datos tengo la sensación de que faltan cosas: Shader clock, core clock, en unas, Memory Clock, Engine clock en otras... ninguna tiene todos los datos ¿o son los mismos con otro nombre? ein?

¿Alguna pista o en qué fijarme para elegirla? ¿En qué valores debería fijarme?

Realmente había pensado pegar links de las que viera interesantes, pero prácticamente pegaría casi todas las que cumplen lo antes mencionado y sería un lío xD

EOL, help me! [boing]


EDIT: Valeee, me dice que tengo que esperar 5 días para responder, y quería aclarar algo con respecto a la que me nombran en la primera respuesta:

Respecto a la que me has puesto (La nV), me pasa lo que menciono antes de los datos. Core clock de 730, ¿en qué afecta?

Así, con mayores frecuencias a priori puedo poner esta y no se cual es mejor de ambas :S
Que presupuesto tienes?

Vas a querer a jugar a juegos con mucha resolucion?

EDIT: Perdon no vi.. xDD

Yo cogeria una AMD Vision (ATI) Porque ofrecen mas cosas por menor precio
http://www.pccomponentes.com/gigabyte_r ... gddr5.html

Si prefieres una Nvidia toma:
http://www.pccomponentes.com/gigabyte__ ... gddr5.html
(mensaje borrado)
No se lo que has puesto xDD

Pero te vuelvo a escribir pa que me contestes xDD
Básicamente lo del edit de arriba. Veo muchas gráficas con frecuencias mas altas, o mas o menos memoria, pero la cosa es ¿Hasta que punto hay que fijarse en eso, y en qué concretamente?

En teoría, la de arriba, que he puesto al final de mi primer post, es "más rápida" no?
A que resolución piensas jugar?
Eres exigente aplicando filtros?
Que fuente tienes?
Un saludo
pazuzu77 escribió:A que resolución piensas jugar?
Eres exigente aplicando filtros?
Que fuente tienes?
Un saludo


A la mayor posible, máxima 1920x1080, aunque no me importa bajar.
No, de hecho los suelo bajar un poco aún cuando voy sobrada para tener FPS constantes.
La fuente la tengo que cambiar, la de ahora va justa, eso lo tengo asumido. Tengo de 400w y iré por los 700w (600 reales supongo con lo del 80%)
Fuusune escribió:
pazuzu77 escribió:A que resolución piensas jugar?
Eres exigente aplicando filtros?
Que fuente tienes?
Un saludo


A la mayor posible, máxima 1920x1080, aunque no me importa bajar.
No, de hecho los suelo bajar un poco aún cuando voy sobrada para tener FPS constantes.
La fuente la tengo que cambiar, la de ahora va justa, eso lo tengo asumido. Tengo de 400w y iré por los 700w (600 reales supongo con lo del 80%)


Lo suyo es que se juegue a la resolución nativa del monitor
Si no eres muy exigente esa GTS 450 puede que te valla bien,aunque ya ha salido la GTX 550
si tu fuente es de calidad no tienes que cambiarla,con una de 700w tienes para un Sli
Saludos
La cosa viene con que me sigo quedando con la misma duda. Con esa me iría bien, vale, pero ¿Se supone que una con mayores frecuencias iría mejor?

Por ejemplo, en el espectro dela 440, no me explico como tarjetas con frecuencias mas altas valen menos que otras con frecuencias mas bajas y me gustaría saber por donde van los tiros en ese aspecto xD

Dos ejemplos de mi duda:

http://www.pccomponentes.com/gigabyte__ ... gddr5.html - 160€
http://www.pccomponentes.com/gigabyte_g ... gddr5.html - 139€ (Y esta incluso es 550 :S)

La resolución que mencioné es la nativa, sí.
ojo, la 550 es peor que la 460, lo he visto en analisis, por eso es mas barata [bye]
Fuusune escribió:Básicamente lo del edit de arriba. Veo muchas gráficas con frecuencias mas altas, o mas o menos memoria, pero la cosa es ¿Hasta que punto hay que fijarse en eso, y en qué concretamente?

En teoría, la de arriba, que he puesto al final de mi primer post, es "más rápida" no?


La frecuencias shaders y demás solo son comparables dentro de una misma serie, una gráfica puede rendir mucho más que otra aunque vaya a menor frecuencia.

Fuusune escribió:A la mayor posible, máxima 1920x1080, aunque no me importa bajar.
No, de hecho los suelo bajar un poco aún cuando voy sobrada para tener FPS constantes.
La fuente la tengo que cambiar, la de ahora va justa, eso lo tengo asumido. Tengo de 400w y iré por los 700w (600 reales supongo con lo del 80%)


Lo de la eficiencia no funciona así, si tienes un 80 % de eficiencia significa que cuando suministra 100 watios al pc esta chupando 120w del enchufe de la pared. Si la eficiencia es del 50% por cada 100w que suministre estará consumiendo 150w.

Yo creo que para jugar a 1080p a juegos no muy exigentes una 5770 te valdría, si tu fuente es de calidad ( seguramente no lo será) la aguantará. Si es genérica pues te tocará comprar alguna fuente decente de 500w
Hey, eso no lo sabía. ¿Quieres decir entonces, que lo del 80% no es la potencia total que proporciona la fuente, sino la conversión para el consumo no? No se si me explico xD

Yo antes entendía que una fuente de 700, proporcionaba 560w reales (el 80%), y en vez de eso, es que por cada 100w consumiría 180 (al 80%) no?
Fuusune escribió:Hey, eso no lo sabía. ¿Quieres decir entonces, que lo del 80% no es la potencia total que proporciona la fuente, sino la conversión para el consumo no? No se si me explico xD

Yo antes entendía que una fuente de 700, proporcionaba 560w reales (el 80%), y en vez de eso, es que por cada 100w consumiría 180 (al 80%) no?


Si tiene un 80 % de eficiencia significa que un 20 % de la corriente que consume se pierde, por lo tanto si suministra 100w consume 120w, si suministra 200w consume 240w etc...

Si, se trata de consumo XD
12 respuestas