"Posibles" caracteristicas y bench GTX 360, GTX 380

Parece ser que hoy han salido a la luz un par de benchs de las nuevas graficas de NVIDIA, concretamente de las GTX 360, y GTX 380. De momento es pura especulacion, pero ahi van:

Imagen
Imagen
Imagen
Imagen

La verdad es que me parece demasiado bueno para ser cierto, hace poco NVIDIA habia dicho que se iba a centrar mas en la computacion por GPU, que en potencia bruta, y eso no es lo que se muestra en los tests, ahi se ve potencia bruta y brutal.
Hasta que no aparezcan reviews oficiales no me creo nada, pero si los resultados se acercan a estos, la GTX 360 va a ser mi nueva grafica [babas] .

Via: guru3d.com [bye]
chhh chhh

hey nen

despierta!

XDDD

Es coña, si es así va a estar muy bien, y desde luego en precio sus vais a flipar. Personalmente veo demasiado optimistas estos resultados... Auguro 350€ de precio para la 360 y 500€ para la 380...

Que Dios nos asista...
No, si yo digo bien claro que de momento no me creo nada, lo dejo bien claro en la ultima linea. Tambien paso lo mismo antes de que salieran las nuevas ati, las ponian por las nubes, y al final bajaron un poco cuando salieron las reviews oficiales, pero como la GTX 360 se acerque al rendimiento de la 5870 a precio similar... pa la saca!!
500€ para la 380...

Eso fijo [qmparto]
Entonces esa si que sería buena... la dual de ATI al mismo precio que la 380. Estos de nvidia quieren sablear el dinero por los cuatro costados...

Como te puede gustar nvidia? sacrílego! jejejee
Como te puede gustar nvidia? sacrílego! jejejee

Cuatro letras, CUDA, yo uso 3dmax + vray, y parece ser que la siguiente version de vray va a usar CUDA para acelerar los renders (se estan pensando portarlo a opencl, si lo hacen ya me da igual la grafica), lo cual me agiliza un huevo el trabajo.
Entonces si, todo lo que te ayude a reducir tiempo de render se puede pagar dinero xD Salvo las quadro, claro :P

Por eso decía que como te puede gustar pq para jugar realmente cualquier cosa suele valer y como el ser humano se rige por precio normalmente, no suele tener mucho sentido al menos desde las HD2900 en adelante jeje.

Espero que no se vayan mucho de madre las nuevas nvidia porque sino no tendremos una interesante guerra de precios.

Por qué ATI no tiene uso de sus streams para aplicaciones de computación y cálculo? Teóricamente es "superior" a cuda... Al menos en tema de enconding es tremendamente superior, y si lo es ahí tendría que serlo también en aplicaciones más complejas.
puff.. si despues en la realidad se aprosiman a esas cifras, menudos pepinos va a sacar nvidia!!! [tadoramo]

Pero en esos datos hay algo me ke llama la atencion y es que esos datos son con dx10.. ¿¿No se supone que la serie GTX300 soporta el dx11 ?? Oooh

En fin, a esperar datos oficiales [rtfm]

Salu2
Así es, es totalmente compatible con Directx 11 por hardware, además de sus chuminaditas del cuda, etc...

Pero en términos de juegos me da que no van a ser esas cifras ya que la han dedicado a otros menesteres y el que mucho abarca, poco aprieta.

De todas las maneras yo tengo una duda, con tanta computación, memoria cache y otras instrucciones complejas etc... además de sus drivers, los juegos deberían estar optimizados para esta arquitectura no? es decir, una tediosa labor de adaptar los juegos a estas instrucciones? o entran en el "paquete" de lo que es DX11?
Esos resultados son falsos, vamos, es que no hay por donde cojerlos, se ve a la legua.

Pero como va a ser la 360gtx superior a la Dual de ATI, es total y completa fisicamente imposible, vamos, eso es más falso que un billete de 3 euros.
Repito, es totalmente imposible, en el mejor de los casos la 360gtx competira con la 5870, y la 380gtx estara a medio camino entre la 5870 y la 5970.
Yo no diria falsos,pero bastante exagerados si XD,yo creo que este año las Nvidia van a tener Nvidia XDDDDDD
anikilador_imperial escribió:Yo no diria falsos,pero bastante exagerados si XD,yo creo que este año las Nvidia van a tener Nvidia XDDDDDD


Joder, si eso no es falso, no se para vosotros que es falso, esos resultados estan inflados como mínimo un 30%, bueno "supuestos resultados"
joder, sino esta falseados, ofrecidos por la misma NVIDIA, NO CREO Q SE ECHEN pestes a si mismo
El denominado "hipe" además de mostrar lo nuevo a los clientes (en este caso), vende más de lo que crees, y muchas personas dirán...coño! voy a esperar, la compran el primer día y no es lo esperado (o sí, no se sabe aun) pero en principio partimos de esto;)
una mononucleo va a fundir a la 5970 y la otra de gama mas baja desbancar a la 5870? [poraki]
de entrada voy a decir que no me lo creo... ya vi unas gráficas bastante similares (estéticamente idénticas) en las que decía que la GTX280 movería el Crysis Very High DX10 a 70fps y luego nada de nada... así que a seguir esperando por lo menos mes y medio hasta que nvidia saque algo oficial (en teoría presentación en el CES, salida en papel a finales de enero, diponibilidad limitada en febrero y disponibilidad real en marzo/abril)...

Marcos1 escribió:Esos resultados son falsos, vamos, es que no hay por donde cojerlos, se ve a la legua.

Pero como va a ser la 360gtx superior a la Dual de ATI, es total y completa fisicamente imposible, vamos, eso es más falso que un billete de 3 euros.
Repito, es totalmente imposible, en el mejor de los casos la 360gtx competira con la 5870, y la 380gtx estara a medio camino entre la 5870 y la 5970.


me hacen gracia este tipo de comentarios... ¿en qué te basas para afirmar esto tan categóricamente? ¿información privilegiada?... lo que afirmas tiene que ver más con la lógica que con la razón absoluta porque no hay nada oficial sobre Fermi en rendimiento bruto en juegos...

¿y si por lo que sea estas gráficas son reales?... pongamos una hipótesis... si la arquitectura GT200 (que no es más que una G80 atiborrada de esteroides) se pule con cierto margen a la RV770... si la memoria GDDR5 es la gran arma de las ATI de gama alta... si nvidia siempre que se ha dado el batacazo (GeForce FX, GeForce 7), a la siguiente se ha sacado de la manga una bestia parda (GeForce 6, GeForce 8)... ¿no sería plausible que Fermi fuese una bomba que se comiera con patatas a Evergreen?...

no sé, son hipótesis, pero yo creo que con algo tangible en ellas y nada descabelladas... afirmar con tanta vehemencia algo sin datos plausibles me parece muy aventurado...
LordArthas escribió:de entrada voy a decir que no me lo creo... ya vi unas gráficas bastante similares (estéticamente idénticas) en las que decía que la GTX280 movería el Crysis Very High DX10 a 70fps y luego nada de nada... así que a seguir esperando por lo menos mes y medio hasta que nvidia saque algo oficial (en teoría presentación en el CES, salida en papel a finales de enero, diponibilidad limitada en febrero y disponibilidad real en marzo/abril)...

Marcos1 escribió:Esos resultados son falsos, vamos, es que no hay por donde cojerlos, se ve a la legua.

Pero como va a ser la 360gtx superior a la Dual de ATI, es total y completa fisicamente imposible, vamos, eso es más falso que un billete de 3 euros.
Repito, es totalmente imposible, en el mejor de los casos la 360gtx competira con la 5870, y la 380gtx estara a medio camino entre la 5870 y la 5970.


me hacen gracia este tipo de comentarios... ¿en qué te basas para afirmar esto tan categóricamente? ¿información privilegiada?... lo que afirmas tiene que ver más con la lógica que con la razón absoluta porque no hay nada oficial sobre Fermi en rendimiento bruto en juegos...

¿y si por lo que sea estas gráficas son reales?... pongamos una hipótesis... si la arquitectura GT200 (que no es más que una G80 atiborrada de esteroides) se pule con cierto margen a la RV770... si la memoria GDDR5 es la gran arma de las ATI de gama alta... si nvidia siempre que se ha dado el batacazo (GeForce FX, GeForce 7), a la siguiente se ha sacado de la manga una bestia parda (GeForce 6, GeForce 8)... ¿no sería plausible que Fermi fuese una bomba que se comiera con patatas a Evergreen?...

no sé, son hipótesis, pero yo creo que con algo tangible en ellas y nada descabelladas... afirmar con tanta vehemencia algo sin datos plausibles me parece muy aventurado...


información privilegiada, no, sentido común.
Si realmente para abril es cuando van a tenerla bien puesta a la venta, llega bastante tarde porque para entonces ati va a tener preparada la hornada 6XXX o una versión reducida, porque dan el salto a 28nm si mal no recuerdo :)
Marcos1 escribió:información privilegiada, no, sentido común.


ya, el sentido común dice eso y yo tb creo que es lo más probable... pero, ¿qué decía el sentido común en Junio del año pasado?... ¿no puede ser que la GTX360 barra a la HD5870? ¿o que la HD5870 barra a la GTX360?... sin datos fidedignos sobre la mesa sólo puedes hacer cojenturas, no dictar leyes...

umm... edito, que no lo había visto...

djohny24 escribió:Si realmente para abril es cuando van a tenerla bien puesta a la venta, llega bastante tarde porque para entonces ati va a tener preparada la hornada 6XXX o una versión reducida, porque dan el salto a 28nm si mal no recuerdo :)


si TSMC no produce bien a 40nm, o bien ATI tira de Gobal Foundries (que creo ya tiene el proceso a 28nm ultimado, aunque no probado en masa... cosa que no creo que pase porque AMD no va a producir Bulldozer hasta 2011 en 32nm) o bien TSMC obra el milagro...
LordArthas escribió:
Marcos1 escribió:información privilegiada, no, sentido común.


ya, el sentido común dice eso y yo tb creo que es lo más probable... pero, ¿qué decía el sentido común en Junio del año pasado?... ¿no puede ser que la GTX360 barra a la HD5870? ¿o que la HD5870 barra a la GTX360?... sin datos fidedignos sobre la mesa sólo puedes hacer cojenturas, no dictar leyes...

umm... edito, que no lo había visto...

djohny24 escribió:Si realmente para abril es cuando van a tenerla bien puesta a la venta, llega bastante tarde porque para entonces ati va a tener preparada la hornada 6XXX o una versión reducida, porque dan el salto a 28nm si mal no recuerdo :)


si TSMC no produce bien a 40nm, o bien ATI tira de Gobal Foundries (que creo ya tiene el proceso a 28nm ultimado, aunque no probado en masa... cosa que no creo que pase porque AMD no va a producir Bulldozer hasta 2011 en 32nm) o bien TSMC obra el milagro...



Si Nvidia tuviera algo bueno ya lo habría sacado, no se perderia toda la campaña Navideña, ni dejaría así el mercado a merced de ATI, lo que pasa es que como Nvidia siga así y tarde mucho, la gente se va a cansar de esperar y va a perder la mayoría del mercado de gama medi-alta y alta contra ATi en esta generaciin, repito "si sigue asi", no lo doy por hecho.
pues a mi me parece lo contrarío, que ATI se ha lanzado muy pronto a la arena con toda la mierda el hype del W7, DX11 y demás... sinceramente me parece vergonzoso que una serie con DOS MESES en el mercado no tenga drivers optimizados para ella, de hecho hay varios modelos que no tienen soporte oficial... que una 5970 costando un 60-80% más, apenas rinda un 30-40% más que la HD5870... que una HD5850 con OC (y no mucho, símplemente a las mismas frecuencias) rinda lo mismo que una HD5870 costando 100€ menos... que un CFX de HD5770 rindan tanto o más como una HD5970 ¿WTF?!!!!...

NO estoy defendiendo a nvidia ojo, que ellos tb tienen lo suyo... primero por no ver que ATI podría tener algo en el mercado tan pronto habiendo gastado ellos poco o nada en I+D (GT200 y G80/G92 son lo mismo a nivel arquitectónico)... y segundo por no tener listo a tiempo un chip que pueda hacer frente a ATI, puesto que se especula con que el Fermi A2 es perfectamente funcional pero que no pasa de 500MHz por lo que el rendimiento es un chiste y por eso se ha pasado al A3 para la producción en masa...
LordArthas escribió:pues a mi me parece lo contrarío, que ATI se ha lanzado muy pronto a la arena con toda la mierda el hype del W7, DX11 y demás... sinceramente me parece vergonzoso que una serie con DOS MESES en el mercado no tenga drivers optimizados para ella, de hecho hay varios modelos que no tienen soporte oficial... que una 5970 costando un 60-80% más, apenas rinda un 30-40% más que la HD5870... que una HD5850 con OC (y no mucho, símplemente a las mismas frecuencias) rinda lo mismo que una HD5870 costando 100€ menos... que un CFX de HD5770 rindan tanto o más como una HD5970 ¿WTF?!!!!...

NO estoy defendiendo a nvidia ojo, que ellos tb tienen lo suyo... primero por no ver que ATI podría tener algo en el mercado tan pronto habiendo gastado ellos poco o nada en I+D (GT200 y G80/G92 son lo mismo a nivel arquitectónico)... y segundo por no tener listo a tiempo un chip que pueda hacer frente a ATI, puesto que se especula con que el Fermi A2 es perfectamente funcional pero que no pasa de 500MHz por lo que el rendimiento es un chiste y por eso se ha pasado al A3 para la producción en masa...

Segun esto un cfx de 4890 se pulen la 5970?
KBM escribió:
LordArthas escribió:pues a mi me parece lo contrarío, que ATI se ha lanzado muy pronto a la arena con toda la mierda el hype del W7, DX11 y demás... sinceramente me parece vergonzoso que una serie con DOS MESES en el mercado no tenga drivers optimizados para ella, de hecho hay varios modelos que no tienen soporte oficial... que una 5970 costando un 60-80% más, apenas rinda un 30-40% más que la HD5870... que una HD5850 con OC (y no mucho, símplemente a las mismas frecuencias) rinda lo mismo que una HD5870 costando 100€ menos... que un CFX de HD5770 rindan tanto o más como una HD5970 ¿WTF?!!!!...

NO estoy defendiendo a nvidia ojo, que ellos tb tienen lo suyo... primero por no ver que ATI podría tener algo en el mercado tan pronto habiendo gastado ellos poco o nada en I+D (GT200 y G80/G92 son lo mismo a nivel arquitectónico)... y segundo por no tener listo a tiempo un chip que pueda hacer frente a ATI, puesto que se especula con que el Fermi A2 es perfectamente funcional pero que no pasa de 500MHz por lo que el rendimiento es un chiste y por eso se ha pasado al A3 para la producción en masa...


Segun esto un cfx de 4890 se pulen la 5970?


Mas o menos, pero solo porque las HD5000 no tienen unos drivers eficientes que expriman su potencial

Salu2
Mas que drivers, juegos, quiero decir DX11 pero vaya, empiezan a salir y el tema también está en que ATI tiene ahora todo el mercado a su favor, cuando realmente lo necesite, sacará drivers. Al menos eso haría yo, teoría del mínimo esfuerzo xD (yo y todo ser humano jeje).
djohny24 escribió:Mas que drivers, juegos, quiero decir DX11


Que?? lol, si mismamente en el DIRT 2 a 1200p se ve que la HD5770 va justa justa (sobre 30-35 Frames). Una HD5850 no llega ni a 60 Frames. Y eso que el juego no esta completamente programado en DX11, solo han metido un par de detalles chorras. En el Stalker mas de lo mismo.
No me quiero ni imaginar cuando saquen el Bad Company 2 o el AVsP2 que se supone que estan hechos en DX11.
La gente se compra una HD5750 o HD5770 antes que una GTX260 o incluso una GTX275 pensando en el DX11, cuando realmente esas tarjetas dentro de 6 meses cuando se quiera jugar a 1200p en juegos que tengan el DX11 implementado no van a poder moverlo con fluidez. Total, que se quedaran en unas graficas para usarse en DX9, y si no, tiempo al tiempo, ya vereis.
Mas les vale sacar drivers pero ya, porque actualmente son una basura pero de las gordas, no tienen verguenza.
Meten la baza de los nuevos super efectos de DX11 para que? si luego solo puedes jugar con 2 o 3 de las "super" graficas de nueva generacion. Y anda que la 5970... vaya tela.... entre los fallos de imagen en 2 o 3 juegos, que si funcima un solo core, que si esperamos a ver si sacan algun parche para que funcione "algo mejor"...
Triste, muy triste...
Total, que solo vale la pena pillarse una HD5850 y hacerle algo de OC para jugar de momento y rezar para que optimicen drivers.
Estas 2 semanas que no he estado posteando he estado probando una HD5970 y una HD5870 y comparandolas con mi GTX295. Y definitivamente... me quedo con la nVidia. Me ha demostrado que siempre se ponen las pilas sacando drivers decentes.
Con respecto a esos bench de Fermi.... tienen pinta de fake, pero no me estrañaria en absoluto que con unos buenos drivers de nVidia, se sacaran esas diferencias dentro de 6 o 10 meses cuando Fermi ya este mas rodado. Solo hay que fijarse en las GTX260. Al poco de salir rendian similar o algo por debajo que una HD4850, pero ahora incluso se mean en la mayoria de los juegos a una HD4890!!! Por que?? Por que nVidia se puso las pilas con los drivers??? o por que en ATI son unos completos inutiles que no saben sacar drivers decentes??
En fin... hacia muhco que no escribia por aqui, [+risas] [+risas] [+risas] [+risas]
perdon por el toxo

Saludos!!!
Bueno aun es tiempo para hablar, si bien has dicho es un juego "parcheado" habrá que ver uno nativo, no? también jugando con el factor drivers / optimización.

Por de pronto han desmentido la noticia de estos benchs, eran fakes como cabía esperar:

http://www.nordichardware.com/news,10412.html

Seguro que el colin va a ese frame rate nada mas? tengo que probar mi crossfire
Estamos hablando sin nada de crossfire, solo una unica tarjeta HD5770.
 Mira este bench
Yo solo se, que Nvidia no va a sacar algo inferior a lo que hay en el mercado, sería un suicidio. Asique como minimo igualará a las ATIs.
Seamos realistas. Todos nos conocemos la historia de las ATI "hay que esperar a nuevos drivers..." jajaja, vaya tela. Son los drivers que nunca llegan, sólo le ponen una mejora de un 10% a un juego y ala. Siempre es así, siempre!
Y sobre lo que decían de...
Crazy Hattori escribió:
djohny24 escribió:Mas que drivers, juegos, quiero decir DX11

Estas 2 semanas que no he estado posteando he estado probando una HD5970 y una HD5870 y comparandolas con mi GTX295. Y definitivamente... me quedo con la nVidia. Me ha demostrado que siempre se ponen las pilas sacando drivers decentes.


Pues más claro agua. Esa GTX295 se me y remea en las gráfica citadas. Eso es optimizar los drivers y sacar rendimiento. Lo demás son blablablabla.
Estas nVidia que están por venir logicamente no van a ser inferiores a la gama anterior. Yo apuesto a que se pulen a la 5970 y no digamos la 5870.
Tiempo al tiempo


EDITO: El colin mcrae, la 5770 una solita a 1920x1080p con filtros, saca 42fps con directx11 y en DX9 saca 47fps, asi que no veo una drástica pérdida de rendimiento en un primer juego no nativo en DX11 y siendo el primero...

Aquí tienes las diferencias, asi que tan malas no son las nuevas ATIs como las ponéis...

http://www.guru3d.com/article/colin-mcrae-dirt-2-vga-graphics-performance-review/8

Pero está claro que no se le puede vender un perro a quien le gustan los gatos ;)
hombre un fuego cruzado!!! me voy a poner el chaleco y el casco por si acaso!!! :p...

bah, fuera de coñas...

hombre no está mal que la HD5770 mueva medio fluidamente el juego en DX11 a 1200p con 8xMSAA, pues jugando con unos filtros más terrenales (por ejemplo yo tengo casi obligatoriamente que meter AAx4 por el tamaño del punto de mi monitor, pero es hasta posible jugar a 1080/1200p sin filtros o con 2xAA en un 22/24" común) se pueden conseguir buenas medias (para mí, menos de 60fps en un juego de coches me parece poco y más si queremos jugar online)...

peeeeeero, nuevamente me da vegüenza ajena de que ATI haya tenido que sacar un hotfix de sus drivers específico para un único juego, porque los primeros tests eran de chiste (una señora HD5870 naufragando a menos de 60fps en DX11) y para nada justificaban la existencia de una tarjeta DX11, además viendo cómo rula el juego en DX11 y en DX9 sigo sin tener claro qué coño pintan las HD5000 en el mecado ahora mismo...

y con STALKER:CoP, pues tres cuartos de lo mismo, activas los efectos DX11 (que por lo menos me parece que en éste son configurables) y los fps en caída libre... qué pintan los juegos DX11 parcheados ahora mismo en el mercado??? nada... ¿porqué se hacen? alguien con interés (M$ y ATI) untando al personal seguro...

el caso es que cuando lleguen los juegos con base nativa en DX11 la cosa va a cambiar radicalmente (espero), puesto que el juego va a tener un código limpio sin parches, con la estructura del API y las nuevas funcionalidades nuevas implementadas con antelación y optimizadas (la Tesselation optimizada tiene que ser impresionate)... un buen ejemplo de ésto es el motor Dunia, que rinde mucho mejor en DX10 que en DX9 porque está hecho desde 0 en DX10 o la versión 1.1 de Crysis Warhead donde DX10 dobla o casi a DX9...
Crazy Hattori escribió:
djohny24 escribió:Mas que drivers, juegos, quiero decir DX11


Que?? lol, si mismamente en el DIRT 2 a 1200p se ve que la HD5770 va justa justa (sobre 30-35 Frames). Una HD5850 no llega ni a 60 Frames. Y eso que el juego no esta completamente programado en DX11, solo han metido un par de detalles chorras. En el Stalker mas de lo mismo.
No me quiero ni imaginar cuando saquen el Bad Company 2 o el AVsP2 que se supone que estan hechos en DX11.
La gente se compra una HD5750 o HD5770 antes que una GTX260 o incluso una GTX275 pensando en el DX11, cuando realmente esas tarjetas dentro de 6 meses cuando se quiera jugar a 1200p en juegos que tengan el DX11 implementado no van a poder moverlo con fluidez. Total, que se quedaran en unas graficas para usarse en DX9, y si no, tiempo al tiempo, ya vereis.
Mas les vale sacar drivers pero ya, porque actualmente son una basura pero de las gordas, no tienen verguenza.
Meten la baza de los nuevos super efectos de DX11 para que? si luego solo puedes jugar con 2 o 3 de las "super" graficas de nueva generacion. Y anda que la 5970... vaya tela.... entre los fallos de imagen en 2 o 3 juegos, que si funcima un solo core, que si esperamos a ver si sacan algun parche para que funcione "algo mejor"...
Triste, muy triste...
Total, que solo vale la pena pillarse una HD5850 y hacerle algo de OC para jugar de momento y rezar para que optimicen drivers.
Estas 2 semanas que no he estado posteando he estado probando una HD5970 y una HD5870 y comparandolas con mi GTX295. Y definitivamente... me quedo con la nVidia. Me ha demostrado que siempre se ponen las pilas sacando drivers decentes.
Con respecto a esos bench de Fermi.... tienen pinta de fake, pero no me estrañaria en absoluto que con unos buenos drivers de nVidia, se sacaran esas diferencias dentro de 6 o 10 meses cuando Fermi ya este mas rodado. Solo hay que fijarse en las GTX260. Al poco de salir rendian similar o algo por debajo que una HD4850, pero ahora incluso se mean en la mayoria de los juegos a una HD4890!!! Por que?? Por que nVidia se puso las pilas con los drivers??? o por que en ATI son unos completos inutiles que no saben sacar drivers decentes??
En fin... hacia muhco que no escribia por aqui, [+risas] [+risas] [+risas] [+risas]
perdon por el toxo

Saludos!!!

tampoco te pases, no creo que superen a la primera tarjeta que rompio el ghz en el core, si eso pasame algun link de bench por mp o algo
Por ahi he leido que mañana (bueno, dentro de unas horas XD) saldran los nuevos drivers de ATi, a ver si dan soporte a las nuevas y arreglan fallos de las actuales con juegos como MW2 (me pega "tirones" y aun no se por que, segun he leido podria ser por la BASURA de drivers de ATi para el Wnidows 7) a ver que tal los benchmarks con estos nuevos drivers y a seguir esperando a "Fermin" que si rinden como es debido creo que la GTX 360 podria ser mi proxima grafica [+risas]

Salu2!!
Yo me puedo llegar a creer lo de Fermi, pues Nvidia no creo que llegando tan tarde al mercado saque tarjetas caras y con un rendimiento similar a las ATI. Lo lógico sería que Fermi se foll* a las Evergreen, pero claro a lo mejor ATI ya tiene nuevas cosas y ahí si que veriamos una guerra interesante de gráficas.
Que ya te lo crees? si lo han desmentido :-?
Por desgracia para todos estos datos son FAKE
Que ya hombre, si me he leído el hilo entero, pero que digo que no me extrañaría que vayan a tener ese rendimiento o parecido.
35 respuestas