WiiBoy escribió:http://www.hardwareheaven.com/reviews/1561/pg3/powercolor-devil-13-hd-7990-graphics-card-review-high-res-gallery.html
OMG la visteis? madreh xd
Bastante engendro de review, la verdad.
La primera impresión es la que queda, y la verdad, después de ver la cantidad de banners masivos (de AMD) que tiene el site de hardwareheaven, que básicamente ocupan más del 50% del área visible para el lector, no me extraña que no tengan reparo alguno en usar juegos con un claro byass hacia AMD, y que además lo hagan usando las condiciones que, deberían saber, hunden el rendimiento en las gráficas nvidia.
Así se ve en Sleeping dogs, que han usado extreme AA (uso de supersampling más alguna otra técnica de AA/postproceso, por desgracia el juego no cita qué factor de supersampling usa), que hunde el rendimiento en las nvidia al desplazar de forma masiva el factor determinante del rendimiento gráfico al ancho de banda.
Pero es que más allá de eso, me parece de risa que el rendimiento que ponen de la GTX 690 sea inferior al de mi GTX 670, aunque ésta tenga OC, ya que y además se puede consultar en el hilo dedicado al ASIC de las GTX 670, no estamos hablando de una GTX 670 que se vuelva "loca" con el OC (excepto memos, claro). Esos resultados no tienen puto sentido.
Yo obtengo en ese test 41 fps, la GTX 690 (que lleva 2 GK104s completos) obtiene 38 fps, lo cual es más que sospechoso, porque da la impresión de que no funciona en absoluto el perfil de SLI con el juego, y curiosamente, la versión del driver de nvidia que usan tiene soporte SLI de dicho juego. Y no es el primer driver donde aparece... ¬¬
La misma mierda con Dirt Showdown (jugada sucia, es una buena traducción desde los mejores tahúres que hacen justo eso, el "dirt showdown", o enseñar una mano trucada). Parece increíble que un juego con semejante parcialidad esté en la mesa de ningún analista y, como mínimo, no tenga la decencia de usar dicho juego con y sin opciones polémicas activadas (sería lo lógico, y de hecho en otros sites cuando usan juegos así suelen "molestarse").
Es que la lista de juegos usada es un tanto ridícula, porque aparte del Battlefield, son pocos y no demasiado representativos (sí, ya sé que a alguna gente le gusta Max Payne 3, pero hay mejores juegos/motores que usar, a pesar de que sea un juego TWIMTBP).
En fin, quitamos el par de ovejas negras e interesadas, y vemos que la "devil13" ésta suda la gota gorda contra la GTX 690. Hay buenas razones para que AMD no se haya atrevido a lanzar su dual gpu hasta ahora, la mezcla de gpus de alta frecuencia necesarias para batir a la GTX 690 significa elevar y mucho los consumos. La cantidad de fases gigantesca es un intento de aumentar su eficiencia energética y así reducir consumos.
Un truco por así decirlo similar a las superOC de Gigabyte que cuidaban especialmente sus fases de regulación a base de usar proadlizers y similares. Eso sí, nada de 20 fases de regulación, por favor...

Otro tema, el uso de resoluciones absurdas, saltan de 1920x1080p (que representa al 90% de gamers) directamente a 5760x1080p (3 veces más resolución). Y no digo que no haya usuarios, ¿pero qué tal escalar las resoluciones usadas de una forma más lógica? Hay monitores de 1920x1200, de 2560x1440 y de 2560x1600, estoy seguro que alguna gente puede verse más tentados por éstos que por un tri-fullHD. Y de paso nos mostraría un escalado de rendimiento con resoluciones, no un paso de todo o nada.
Es que la cosa es más grave cuando se sabe que algunos de estos juegos usan supersampling, que a lo tonto es equivalente, depende del factor usado, a duplicar o cuadriplicar la resolución. De ahí algunos resultados "curiosos".
Mucho mejor es la review de techpowerup:
http://www.techpowerup.com/reviews/Powercolor/HD_7990_Devil_13/Donde al usar muchos juegos, y evitar en la medida de lo posible dejar las opciones más cantosas hacia un fabricante (lo intentan con sniper elite v2, pero se equivocan, no es el supersampling lo que más le cuesta a las nvidia con este juego, son los compute shaders, pero bueno, lo intentan), y cuando digo eso me refiero hacia los dos lados (p.ej, evitan el uso de AA en Starcraft II para evitar perjudicar a las AMD).
Muchos juegos evitan cribas por culpa de una mala selección de éstos. Y si aún encima tienes de sponsor a una casa y usas un par de casos de juegos que escoran mucho hacia un lado, de una lista reducida, como que te lo pintan claro...
Que parecen un poco menos vendidos, por lo menos no tienen la web plagada de publicidad de una marca concreta...
![llorando [snif]](/images/smilies/nuevos/triste_ani1.gif)
Nesquik escribió:No digo que te vendan una demo, o un juego, sino que te venden el potencial de un SLI de 680 o 690 como algo superior, que lo es si, pero ¿superior a que? y sobre todo, ¿en que circunstancias?
Lo raro no es que funcione en una gráfica de la serie 600 que ha costado los casi (sino a veces tal vez mas) 400€, sino que lo raro es que gráficas anteriores puedan moverlo a 15 o 25 fps cuando eso es el rendimiento o casi el rendimiento de una 670 con esa demo.
En otras palabras... es el benchmark mas desinflado que te puedes echar a la cara.
Por eso se dan resultados tan dispares como los que hay, que una 480, por muy buena que fuera en su momento tenga un rendimiento similar a una 670 que ha conseguido sobresalir incluso por encima de la 680 por su precio y poca diferencia de rendimiento, no es fiable en ningún momento, hablamos de 2 generaciones de diferencia y no hay diferencia apenas.
Perdona pero eso no me lo puedo tragar ni con 2 kilos de manteca... indiferentemente de los filtros y calidad que tenga esa mentira, por llamarla de alguna manera.
¿Pero qué benchmark Nesquik? ESTO no es un benchmark, es una demostración técnica, es algo muy distinto. Y perdona que te lo diga, pero ni de coña lo mueve igual una GTX 480 / GTX 570 que una GTX 670. Y si alguien te dice lo contrario, te miente.
La gente tiene la tendencia a decir lo que le conviene, en esta demo si se quiere se comprueba, el rendimiento en X situación y de forma controlada, y verías que va mejor en las nuevas. Pero lo que no entiendo es el porqué tiene que ir a chorrocientos fps, esta demo se mueve con la suficiente soltura para hacerte una buena idea de los avances en técnicas 3D a aplicar en un futuro. No te creas los primeros cuentos que te digan. Si en la situación X la GTX 480 o la 570 obtiene 20 fps, la GTX 270 igual obtiene 30 fps, y cuando sean 15 fps, en ese caso serían 22 fps, por ejemplo. Yo he visto esta demo con varias Fermi (reconozco que NO una GTX 480, pero sí una GTX 465, una GTX 560 Ti, y por extrapolación y diferencias con la GTX 670, ya te digo que ni de coña rinden lo mismo).
Pero es que por ningún lado dicha demo técnica pretende aparentar ni un juego de tipo más o menos creíble ni tampoco es un "bench" que te dé una puntuación arbitraria, o te diga los fps.
De lo que te hablo lo puedes comprobar acá:
http://www.geeks3d.com/20120723/tested-a-new-dawn-nvidia-dx11-tech-demo-for-gtx-600-released/Puedes leer comentarios y la propia noticia, verás rendimientos, y ni de broma ponen en la misma balanza a las GTX 600 que a las GTX 400/500. La demo es costosa en rendimiento, pero suficiente con una GTX 600, no veo cuál es el problema con ésta.
PD: La demo en modo ultra, que es como arranca por lo menos con una GTX 600, llega a consumir 2GB de VRAM fácilmente, así que ni de coña va a ir igual en una GTX400/500 aunque éstas tuvieran la misma capacidad por GPU para moverla.