Articulo sobre la GPU de x360 (#2)

17, 8, 9, 10, 11
A ver hay que calmarse un poquito.

También hay que tener en cuenta que el G70 está probado en un ordenador convencional, no?? Y ya sabemos lo que eso conlleva en pérdida de rendimiento frente a una arquitectura cerrada, drivers, etc.

Yo hasta que no vea realmente lo que se dice con kits finales, etc, no me voy a creer ni la mitad.

Respecto a la refrigeración, etc, imagino que habrán hecho sus cálculos.

Es igual que el Xenos, que yo sepa no hay ningúna X360 montada para ver si eso disipa bien o no.

Está todo ceñido a la teoría y ahí veo el problema.
Phellan_Wolf escribió:Pues lo digo porque Xenos se divide en 2, lo que permite disipar bastante más el calor. Además la refrigeración líquida que yo sepa es para Xenon. Y el Cell es un horno, el RSX también lo será. Fíjate en el esqueleto de PS3, y en el del Kit de desarrollo que monta un Cell a 2,4. ¿De verdad te crees, que en ese diseño van a poder disipar todo el calor que se va a generar?
Pues sigue soñando, pero lo único que podrían sería meter un Cell a menor velocidad, porque si no eso se derrite.


Ya han dicho que el Cell no lo mantuvieron a 4 Ghz por el calor.

Ahora resulta que lo que van a meter a menos velocidad tambien es el Cell!!! a 3,2 lo anunciaron...cuanto lo van a bajar?

Nada, que la Xbox 360 no es un horno pero la PS3 si.... [decaio]

Yo sigo soñando mientras otros lo tiene todo clarisimo.
Nadie ha dicho que Xbox360 no sea un horno. La PS3 si que lo va a ser porque se basa en piezas provenientes del Pc, no es una arquitectura hecha específicamente para consola. Eso no quita que la xbox360 no vaya a calentar de lo lindo también.
Fijate en la cantidad de ventilaciones que tiene la carcasa de Xbox360, la de PS3 no tiene nada ni remotamente comparado.
¿Que te crees que un Cell a 3,2 no es un horno? Te remito al dev kit y fijate lo tocho que es y eso que sólo monta uno a 2,4 Ghz.
En cuanto a la anulación de pipes, es un método de que la tarjeta pueda disipar mejor el calor y le permita alcanzar fácilmente más velocidad.
Ilherre una arquitectura tradicional no rendirá jamás más del 70%, ya sea consola o Pc, y en Pc se estima que rinde al 55%.
takeda escribió:
¿Como refrigera la XBOX 360? pq menudo horno tiene hay dentro tambien...a si, que meten refrigeración liquida!!!!

¿Me dices ahora la refrigeración de la PS3 y de donde sacas la afirmación de que lo que metan dentro se va ha 'derretir'?

PD: Estoy pregunton hoy...lo siento. [sati]



Xenon va por liquida, Xenos no necesita ni ventilador, los primeros samples a velocidad casi final se refrigeran pasivamente. Hace cuantos SIGLOS que no ves refrigeración pasiva en una gráfica de PC?

G70 se lleva cerca de los 150w de consumo a maxim a carga, sube 100MHz o más para RSX, y tendras una carga similar o ligeramente superior, añade a q genere casi el mismo calor energetico a la hora, y tendras q PS3 se convertira en una tostadora con patas.

Xenon, aun siendo triple core, no se calienta tanto como parece (idem para CELL, un poco menos, pero no se llevan mucho)

takeda escribió:Editando que es gerundio:



Entendida la TEORIA de el Xenon, ¿despues de la teoria me das datos en la practica?....

Los datos con el Engine del Unreal 3 los veremos, me parece haber leido que esta mas optimizada para ese Engine que para el del Doom 3.

Si te reeles el hilo veras que mas de uno a vertido serias dudas sobre que el RSX alcanze esos 550 Mhz...

Y no, lo qu esta en el mercado es el G70...yo si bajo a una tienda y pido algo con las especificaciones ANUNCIADAS para el RSX no me lo venden pq no lo hay. [angelito]


hijo mio, hay teorias, y TEORIAS. Esa parte de Xenos no tiene nada que ver con una arquitectura sin probar (shaders unificados) o una revolución tecnica extraña, lo unico que han hecho ha sido sacar ciertas funciones del nucleo principal, y las han incluido en esa memoria, para agilizar BRUTALMENTE dichas tareas, esa memoria hace de "cache" y buffer a la vez, con lo que Xenos no necesita ir X veces a la RAM a samplear un texel o un pixel de una textura o lo que se tercie. Para eso no hacen falta benchmarks, solo hace falta diferenciar entre 2+2 y x+y. Lo primero es una ciencia exacta, lo segundo también, pero hacerlo más o menos rapido depende de los valores escogidos.

Yo tb dudo de q lleguen a los 550MHz, pero bajando a 90nm no me extrañaria demasiado.

Y por ultimo, a ver si nos empapamos:


G70==RSX a 90nm

y no lo digo yo, lo ha dicho nVIDIA tropocientas veces. Lo que diga Kutaragui a estas alturas ya me lo paso por el forro. Por que o vive fuera de este mundo, o no lo entiendo. Es el unico directivo q conozco con los cojones suficientes para subcontratar un producto, y al anunciarlo, CONTRADECIR a los propios ingenieros encargados de esa subcontrata. Es algo alucinante.
Takeda voy a aclararte lo de la anulación de pipes, que en mi otro mensaje por hacerlo rápido no lo he puesto como debiera.
Al pasar al G70 a un proceso de 90nm, se alivia calor, pero tienes más posibilidades de que te salgan chips defectuosos, es decir con pipes que no funcionan. Esto ayuda tanto como a disipar calor, como a overclockear el core. básicamente para que te hagas una idea, las 6600 son 6800 con pipes defectuosos.
Y Shadow ya lo ha dejado bastante claro, el RSX será un G70, y fue anunciado por Nvidia mucho antes de que el bocazas de Kutaragi empezase a decir chorradas.
A ver, despues de toda la parrafada....

¿Tostadora PS3? Vale.

¿Sabes como van a refrigerarlo? No tienes NPI.

Y te repito..por mucho que la RSX sea una G70 overclokeada...

1º NO ESTA EN LAS TIENDAS.

2ª NPI DE SU RENDIMIENTO.

Pero nada......ya me he empapado, de sudor. :o

Gracias Phellan_Wolf por la explicación del tema de la anulación de pipes...pero supongo que no necesariamente tendran que anularlos...

¿Y sobre el tema de RSX-G70...que dijo Nvidia, que 'era igual' o que se 'basaba en'....?
y no tiene q llamar X veces a la textura para poder hacer el sampleo necesario


Perdona pero el antialias se hace directamente en el framebuffer no se a que viene eso de la textura.

G70 se lleva cerca de los 150w de consumo a maxim a carga


mentira consume 100w, 10 menos q una 6800

Y lo q esta claro es q en PS3 nos vamos a tener q olvidar de antialias para muxos juegos potentes pero a cambio los shaders seran algo mas potentes no muxo pero algo.Lo q sigue estando claro es q si la DRAM funciona tal cual la pintan va a cundir bastante pa algunas cosillas, lo unico q no puede dar 1080p con doble buffer creo yo pq los 10 megas no llegarian, de ahi q no solo anunciaran hasta 1080i creo yo.
Para hacer un FSAA X, hay q leer X veces cada texel desde la memoria para generar una imagen X veces más grande en tamaño.

Y si X360 no saca 1080p, no es pro que no pueda (ATi ya ha dicho q puede) ni por la EDRAM (no es el front/back buffer), si no por que quizas, MS ha decidido que el chip de salida final (el reescalador de señal) no lo soporte. Es cuestión de diseño, no de capacidad...

yo por mi como si nos permiten 2048x1600 XD

takeda escribió:A ver, despues de toda la parrafada....

¿Tostadora PS3? Vale.

¿Sabes como van a refrigerarlo? No tienes NPI.

Y te repito..por mucho que la RSX sea una G70 overclokeada...

1º NO ESTA EN LAS TIENDAS.

2ª NPI DE SU RENDIMIENTO.

Pero nada......ya me he empapado, de sudor. :o



a) PS3 seguramente, si Kutaragui tiene tan solo un cuarto de dedo de frente (que ultimamente empiezo a dudarlo), liquida doble + ventilador normalito. Y no es que no sepa como van a refrigerarlo, es que solo hay dos opciones: Aire, o Liquida. Ni más, ni menos. Simplemente no hay más posibilidades comercialmente viables.

RSX == G70. Te compras una G70 y ya tienes tu RSX no mucho más lenta, es más, G70 tiene memoria más rapida que la que llevará RSX. Y el G70 con mi sistema de refrigeracion en mi PC, no creo q se quedase muy lejos de los 500MHz... sin meter peltiers de por medio ni chorradas para salvar el problema de las 110nm.

Lo tienes en las tiendas, y podrías mediante algúnos pocos calculos, hacer un benchmark y extrapolar rendimiento, no creo que obtuvieses un error mayor del 5%.
takeda escribió:Gracias Phellan_Wolf por la explicación del tema de la anulación de pipes...pero supongo que no necesariamente tendran que anularlos...


Y otra cosa es que la G70 no tiene 24 pipes reales. Tiene 24 unidades de pixel shader, pero luego la salida se tiene que hacer a traves de 16 ROPs, lo que le da el mismo fillrate (a igual mhz, evidentemente) que una 6800.
Imagen
Imagen


en pico diria q consume unos 140W
shadow land escribió:Imagen
Imagen


en pico diria q consume unos 140W


Macho, pareces nuevo, eso es el sistema completo, no la grafica sola.
pero pq no respondes a lo del antialias y las texturas?si el antialias solo tiene en cuenta el framebuffer a q te referias con
y no tiene q llamar X veces a la textura para poder hacer el sampleo necesario


Y si X360 no saca 1080p, no es pro que no pueda (ATi ya ha dicho q puede) ni por la EDRAM (no es el front/back buffer),

Pues la EDRAM si es el framebuffer, asi pueden hacer un antialias sin penalizacion, debido al gran ancho de banda de dicha EDRAM. Ademas que esto no hace falta ni q lo diga pq se ve claramente q es cm mejor encajan todas las cosas.

Y sobre esto:
Y otra cosa es que la G70 no tiene 24 pipes reales. Tiene 24 unidades de pixel shader, pero luego la salida se tiene que hacer a traves de 16 ROPs, lo que le da el mismo fillrate (a igual mhz, evidentemente) que una 6800.


es interesante darse cuenta de ello pero creo q tal y cm pone en la review ahi no se situa el cuello de botella totalmente:

As we highlighted in our GeForce 6600 GT article having a 1:1 fragment shader to ROP arrangement is becoming increasingly less important as the onus is being placed more on shader processing so the graphics workload is spending more cycles operating internally, within the shader pipelines, and actually sampling to the frame-buffer is not necessarily the most frequent operation now
Fraludio escribió:
Macho, pareces nuevo, eso es el sistema completo, no la grafica sola.


es una estimación mia guarra.

Pero todos sabemos q uan GPU es lo que más chupa de un PC con diferencia, y más en uno de pruebas donde solo hay GPU, CPU, HD, DVD y con suerte tarjeta de sonido.

anula 120/140w para CPU+PCB+HD+DVD, y sacaras lo q chupa la gpu aproximadamente.
Una preguntilla que me viene a la cabeza:

- Si la EDRAM esta es la super panacea mega ultra chachi piruli y todo lo que querais poner detrás. Por qué no la han utilizado antes??
lherre escribió:Una preguntilla que me viene a la cabeza:

- Si la EDRAM esta es la super panacea mega ultra chachi piruli y todo lo que querais poner detrás. Por qué no la han utilizado antes??


Antes si ha sido utilizada, en PS2, pero no supieron implementarla. Geniales ingenierios tiene sony.
Una preguntilla que me viene a la cabeza:

- Si la EDRAM esta es la super panacea mega ultra chachi piruli y todo lo que querais poner detrás. Por qué no la han utilizado antes?


Además la edram no sólo permite aplicar el AA. Permite otra multitud de efectos que chupan ancho de banda by the face, como por ejemplo los stencil shadows de Doom3, que aquí el RSX las va a pasar un pelín canutas.
La edram también la implementaba el flipper de cube creo recordar.
shadow land escribió:a) PS3 seguramente, si Kutaragui tiene tan solo un cuarto de dedo de frente (que ultimamente empiezo a dudarlo), liquida doble + ventilador normalito. Y no es que no sepa como van a refrigerarlo, es que solo hay dos opciones: Aire, o Liquida. Ni más, ni menos. Simplemente no hay más posibilidades comercialmente viables.


Ya se esta empezando a montar en algunas graficas sistemas de refrigeracion mediante metal liquido, que supuestamente es la evolucion logica de las pipas conductoras, y que estan dando muy buen resultado, ahi va una foto:
Antes si ha sido utilizada, en PS2, pero no supieron implementarla. Geniales ingenierios tiene sony.


ostias pos macabo de enterar, de dnd sacaste esa info?
Y si la cube tenia EDRAM alguien sabe de q tamaño?y de q le valia si no usa casi nada antialias creo yo?
Kamainae escribió:
Ya se esta empezando a montar en algunas graficas sistemas de refrigeracion mediante metal liquido, que supuestamente es la evolucion logica de las pipas conductoras, y que estan dando muy buen resultado, ahi va una foto:


"Pipas" conductoras? xDDD seran tuberias...

No puedo quitarme de la cabeza la imagen de una pipa al volante...
Aqui otra fotillo con un detalle de la bomba que mueve el metal liquido.
La mayor ventaja de este sistema es que rinde de manera similar a la refrigeracion liquida pero no precisa de mantenimiento, aunque es caro.
lherre escribió:Una preguntilla que me viene a la cabeza:

- Si la EDRAM esta es la super panacea mega ultra chachi piruli y todo lo que querais poner detrás. Por qué no la han utilizado antes??


ya te ha respondido fraludio. Añade su alto coste.

En Ps2 solo se les ocurrio usarla como cache... y claro, así salio.
ATI no dijo que Xenos consumia unos 35 W ein?, creo recordar que si era esa cifra, me parecio super ridicula para una GPU actual , pero encajaria con la disipacion pasiva.

Un saludo.
Ashtyr escribió:ATI no dijo que Xenos consumia unos 35 W ein?, creo recordar que si era esa cifra, me parecio super ridicula para una GPU actual , pero encajaria con la disipacion pasiva.

Un saludo.


sip, han incluido toda slas tecnologías de "ahorro energetico" que usan en portatiles, PDAs y derivados, amén de otras que es la primera vez que implantan...
yo no se vosotros pero a mi todas estas tecnologías de "ahorro energetico" siempre me han parecido relacionadas con una disminucion de potencia (no demasiada pero si alguna).

Hay portatiles con XT850 montadas a toda potencia?
se trata de "apagar" zonas que no se usan, implementar una mejor distribución de los transistores para que no haya zonas "calientes", optimizar la cantidad de ciclos por operacion y un largo etcétera (empezando por usar el menor tamaño posible de fabricacion).


Mi centrino lleva 1 año encendido y solo usa refrigeración pasiva ;)
Una pregunta ... ¿Respecto al overclocking de la G70?. Creo recordar que la subida de mhz no se corresponde con la subida de potencia, vmos que no es proporcional ... ¿alguien sabe de esto o me lo he inventado?.

Yo pido una recolección de firmas para que saquen las specs totales de PS3 ... no soporta mas como sufre Tekada ... es borma "Tek" no te enfades ;-)
no, no es una subida ni lineal, ni exponencial. El aumento de rendimiento depende de cosas como el ancho de banda libre disponible, que la cpu no sea un cuello de botella, q no este la gráfica saturada por shaders, etc, etc..

Pero teóricamente debería ser un aumento relativamente lineal.
Hombre en la G70 q tiene 24 pixel shaders yo creo q el overclocking cunde mas.
pink_chocobo escribió:Hombre en la G70 q tiene 24 pixel shaders yo creo q el overclocking cunde mas.


el tema esta en el nivel de shaders q hay, si antes estaba saturado el crecimiento es exponencial, si no estaba saturado, quizas no llegue ni a lineal (lo más probable)
buff yo creo q es muxisimo mas complicao cm pa ponerlo tan sencillo, aun asi un incremento de potencia lineal seria la caña, lo q tu dices de crecimiento es exponencial me parece algo imposible p muy saturaos q esten los shaders
pink_chocobo escribió:buff yo creo q es muxisimo mas complicao cm pa ponerlo tan sencillo, aun asi un incremento de potencia lineal seria la caña, lo q tu dices de crecimiento es exponencial me parece algo imposible p muy saturaos q esten los shaders


es lo q da estudiar estadistica. jeje.


Si simplemente hay saturación de sahders, puede producirse un crecimiento superior al lineal (exponencial... q el exponencial no tiene por q ser elevado al cuadrado o a 20, si no q sea una ligerisima curva por encima del lineal). Si no hay saturación de shaders, pero si de ancho de banda, el crecimiento no será ni lineal, si no inferior, ya q seguira habiendo las mismas condiciones de saturación con una ligerisima mejora sobre el "pico" de rendimiento en ese benchmark.

No es tan facil, pero este es el resumen "tonto" del sistema... jeej
ia jeje lo q esta claro es q cuellos de botella en los anchos de banda no se solucionan a mas Mhz ni de coña, hasta se empeorarian. Lo de la relacion exponencial-lineal puede q si los tiempos son muy cortos se puedan aproximar pero si no a la larga p muy "casi" paralelas q empiecen las curvas (weno la lineal seria una linea no una curva pero se entiende creo :)) a la larga se van a diferenciar cm la noche del dia.
Jus jus, interesantes rumores para Xenos ahora. Por lo visto Ati está teniendo más problemillas de los esperados con Xenos, pero para bien. Por lo visto, en las primeros wafers de silicio, los primeros chips están teniendo mucho más rendimiento del esperado, hasta el punto de que podrían aumentar la velocidad hasta 600 Mhz y seguir obteniendo el rendimiento previsto inicialmente, pero claro saldrían más chips defectuosos.
Por lo visto ´se está pensando todavía que hacer, si subir la velocidad del core y que se mantuviese el rendimiento esperado, o dejarlo a la velocidad de 500 Mhz pero con un rendimiento y eficiencia mucho mayor.
No sé vosotros, pero como estos rumores se acaben verificando, y opten por subir un poco la velocidad,que chunguito lo va a tener el RSX.
Esto ya es surrealista,

Ati va a subir los 100 Mhz así como "milagrosamente" (sin ningún problema de ningún tipo, aumento de rendimiento, etc) y el RSX "ni de coña" los va a alcanzar (supuestos recortes, disipación, etc).

Vamos que no se ni por qué existe Nvidia porque son los más patanes del mundo.

Un saludo
Esto ya es surrealista,

Ati va a subir los 100 Mhz así como "milagrosamente" (sin ningún problema de ningún tipo, aumento de rendimiento, etc) y el RSX "ni de coña" los va a alcanzar (supuestos recortes, disipación, etc).

Vamos que no se ni por qué existe Nvidia porque son los más patanes del mundo,


Vamos a ver Iherre, nadie ha dicho que los vayan a subir. Subir la velocidad, implica muchas cosas. Baja el rendimiento global del chip, aumenta la temperatura del chip, pueden salir más chips defectuosos por wafer, etc.
Además sólo es un rumor, y si se confirma quien sale ganando somos los usuarios, y si estas mejoras son posibles bienvenidas sean.
lherre escribió:Esto ya es surrealista,

Ati va a subir los 100 Mhz así como "milagrosamente" (sin ningún problema de ningún tipo, aumento de rendimiento, etc) y el RSX "ni de coña" los va a alcanzar (supuestos recortes, disipación, etc).

Vamos que no se ni por qué existe Nvidia porque son los más patanes del mundo.

Un saludo


[tadoramo]

Son las 2 caras de la moneda, creerse todo de una fuente y nada de otra....
Toda esta guerra entre Xenon/Cell y Xenos/RSX es pa mear y no echar gota [looco]. Y este hilo es el no va más, es como una montaña rusa. A ratos flipas y a ratos no entiendes nada.

¿Alguien me puede explicar como por arte maJía se pueden subir 100Mhz en Xenos como quien no quiere la cosa?


Saludos
Chenchuken escribió:Toda esta guerra entre Xenon/Cell y Xenos/RSX es pa mear y no echar gota [looco]. Y este hilo es el no va más, es como una montaña rusa. A ratos flipas y a ratos no entiendes nada.

¿Alguien me puede explicar como por arte maJía se pueden subir 100Mhz en Xenos como quien no quiere la cosa?


Saludos


Porque el proceso les ha podido salir mejor, un chip más eficiente, el usar low-k, depende de muchisimas cosas.
Vamos a ver. Las specs que se dan siempre en un principio son sobre papel, y nunca, nunca coinciden con las finales. Esto se debe a los procesos de fabricación, y puedes tener varias vertientes:
- Tener la posibilidad de aumentarlas por que te ha salido mejor de lo que esperabas y perder un poco más de pasta, o dejarlas tal cua y ahorrarte dinerito.
- Que no salga lo que esperabas, tengas que bajarlas y ahorrar un poco de pasta, o forzar la máquina intentar llegar hasta donde puedas y perder pasta por un tubo.
Esto siempre ha sido así, siempre. ¿Donde están los 300Mhz del Nv2A? ¿Por qué Nintendo decidió aumentar la velocidad de la CPU de GC en el último momento?
Esto no es nuevo y repito que siempre ha sucedido, pero más el segundo caso que el primero.
Y esto le puede pasar perfectamente a Ati y a Nvidia.
Chenchuken escribió:¿Alguien me puede explicar como por arte maJía se pueden subir 100Mhz en Xenos como quien no quiere la cosa?


Saludos


preguntante por que ATi en mismo proceso de frabricación, gasta menos, y rinde más con menos hertzios, tendras una respuesta parcial :P


El aumento de hasta 100MHz... suena un poco a... os hemos tomado el pelo a todos, especialmente a Sony. O... hemos tirado por lo bajo para asegurar unas obleas funcionales en un alto porcentaje, y nuestros estadisticos como son una mierda (de esto solo existe en espña XD), no supieron hacer correctamente el calculo de velocidad maxima :P

suena raro de huevos. Y de ser cierto, lo único que vendría a decir es qeu ATi estaba muy a la defensiva con las velocidades... pero si tenemos en cuenta que Xenos se refrigera con un simple disipador sin ventilador... no me extrañaria nada que pudiesen subir 50MHz a pelo, o incluso 100 añadiendo un ventilata pequeño...
De acuerdo. Vosotros que hariais, ¿aumentar la velocidad todo lo que se pueda, bastante, poco o dejarla como está? (con los problemas que conlleva). ¿Y que creeis que hará ms?


Saludos
Si M$ quiere ahorrar pasta, los dejará tal cual. Si por otro lado no le importa perder algo de dinero y quiere hacer pupita a Sony mediante marketing de specs y tal la subirán, pero no creo que más de 50Mhz ,eso es forzar ya demasiado. Un poco de velocidad nunca viene mal ;)
Chenchuken escribió:De acuerdo. Vosotros que hariais, ¿aumentar la velocidad todo lo que se pueda, bastante, poco o dejarla como está? (con los problemas que conlleva). ¿Y que creeis que hará ms?


Saludos


50MHz... y eso el chip va como debe, lo harán rascandose la polla los ingenieros :P

100MHz sería poner en peligro bastantes chips en las obleas, pero nunca se sabe, imagino que habría muchos más problemas por la supuesta estabilidad de la edram al subir la velocidad, q por el chip en si.
como es eso de que el chip pierde rendimiento al aumentar la velocidad?? creo que hay me he perdido...

salu2
keox escribió:como es eso de que el chip pierde rendimiento al aumentar la velocidad?? creo que hay me he perdido...

salu2


rendimiento relativo, no rendimiento real.

si a 500MHz tiene un rendimiento, digamos, del 75% respecto a su potencia real, quizas a 550MHz solo sea del 65-70%
Jus jus, interesantes rumores para Xenos ahora.

Tio ya tenemos discusion pa rato cm nos pongamos a hablar de rumores xungo, pero al menos danos la fuente de dnd lo sacaste para hacernos un poco a la idea de la fiabilidad de ese rumor.

Porque el proceso les ha podido salir mejor, un chip más eficiente, el usar low-k, depende de muchisimas cosas.

Podias explicar a q te refieres con el low-k? tamaño de proceso quizas?es q con solo mencionarlo no me entero,gracias.

Por cierto no me creo q ATI se haya topao con esta sorpresa positiva y si me creo q quiza ya lo sabia y se lo tenia guardao, pero no se pq me da q aunq aumenten la velocidad la potencia no va aumenta ni linealmnt en este caso, algo mejorará pero creo q sera mas para guerra de spec PS3 vs X360, aunq la mejora seria bienvenida.
Vale pero lo del dielectrico low-k no creo q a estas alturas con la experiencia q tiene ATI le haya sorprendido tanto en el resultado final, y vosotros mismos sabeis q si sucede esto no deberia ser tanta la diferencia cm para poder aumentar 100mhz.

Y si no es tan raro citarme otra caso en el q haya sucedido una ampliacion del 20% en la velocidad (cm en este caso). No se me parece muxo, q coste q no lo digo por joder la ilusion a nadie q esto a mi tb me cundia (siempre y cuando no aumente el precio final de la x360).

Lo dicho o era una sorpresita o se qdara simplemente en rumor, por cierto repito q alguien me pase la fuente please.
501 respuestas
17, 8, 9, 10, 11