DirectX 12 son malas noticias para Nvidia

14, 5, 6, 7, 8
josemurcia escribió:Ojalá sea la tendencia y obligue a NVIDIA a bajar precios, pero AMD sigue rindiendo por debajo de NVIDIA si comparamos las especificaciones de las GPUs, a pesar del Async Compute que juega a favor de AMD.



Eso es muy cierto pero hay que plantearse una cosa. De qué se alimenta el pc principalmente? de ports. La mayoría de juegos de consola van a tirar de async porque no les queda otra que rascar hasta de donde no hay.
Me encanta ver cómo alguna gente decide ignorar el casi 20% de rendimiento extra que le saca la 980 Ti a la Fury X en este test (así de serie, que como todos sabemos, la 980 Ti va apretada de frecuencias como las fury X, claro), o cómo la propia AMD se "ownea" como les gusta decir a algunos, con la 390x (aka, 290X OC edition que tengo el culo tan apretado de OC que no subo nada, el único mérito real de la serie 390 es haber estandarizado el uso de memorias de mayor frecuencia y calidad que en la serie 290, y por tanto mejorar de forma REAL en todo test que esté limitando por ancho de banda, y no por frecuencia, que ésa se la subo yo, gracias), lo cual es especialmente gravoso porque resulta que Fiji simplemente no tiene margen de OC para arriba (como sí tenía algo las hawaii originales, e incluso a la misma altura si no un poco más, que no es un gran mérito tampoco, las 390 vs las Fiji).

Y cómo acaban haciéndose colosales gallardas porque una 390X le saca a una 980 el asombroso, cágate lorito, magen de ¡¡¡3 putos frames extra a 1080p!!!, ni más ni menos que un "poderoso" 4,34% extra de rendimiento, eso sí, la Fury normal y la nano rindiendo aún menos que la 390X, para nada reseñable, "hoyga!" XD, hasta el punto de que empatan a 4K con la pobre y derrotada 980 :

Imagen

Colosal de la muerte, vamos. Urra AMD, urra, y tal y tal. Tu 390 está en esta prueba sobre un 10% por encima de la 970, y tu 390X supera por menos de un 5% a la 390X a la 980, ¡¡qué gran valor de mercado!! pena que esto inhabilite totalmente el mal rendimiento relativo de tus "top ends" con serios problemas de rendimiento como las Fiji, que parece que están ahí por estar, ya que no escalan ni una pizca decentemente su rendimiento respecto a Hawaii, porque para ganar nada o casi nada, no se paga ese extra y menos al precio de la 980 Ti... :cool:

Que yo sepa, las 390 se venden claramente más caras ya que las 970, y las 390X aunque sí son algo más baratas que las 980, no es precisamente por un margen de aúpa.

Se le añade a la ecuación la falta total de capacidad de OC de esas 390 (por cierto, que todas las que se usan en pruebas vienen con preOC de fábrica a mayores del propio definido por AMD, sí, también las nvidia, pero es que las nvidia aunque fueran G1, que no lo son las usadas, seguirían teniendo un buen stock de OC bajo el capó, de hecho posiblemente más reserva, por ir más holgadas de fábrica), y tenemos unas gráficas la hostia de competitivas con un tipo de usuarios que ya sabemos, jamás de los jamases van a subirles de vueltas a sus gráficas, sálvenos dios de ver esa aberración de hacer OC a una gráfica. :-|

Mirando rápidamente en una tienda como PCcomponentes a ver el chollazo que ofrece para DX12 AMD, como Pccomponentes, veo buscando las gráficas más baratas en cada modelo mencionado:

GTX 970: 339€ la miniITX de Gigabyte, 345€ la windforce usada en la review de techreport, que por cierto, no tiene nada que envidiar a otras personalizadas porque ésta la he probado personalmente (15-20% de rendimiento extra con OC, por lo menos en los datos preliminares que tengo registrados con juegos como Ark), y además de silenciosa, fresquísima aunque no tenga backplate ni más OC de fábrica como la G1, incluso la muy mamona se permitía el lujo de mantenerse bastante fresca en un SLI donde le tocaba el peor lado, vamos que con una caja de alta capacidad de circulación es factible, al contrario de lo que pensaba antes, mantener un SLI de este tipo de tarjetas (otros modelos como la MSI que tengo sufrirían más):

http://www.pccomponentes.com/gigabyte_geforce_gtx970_itx_oc_4gb_gddr5.html

http://www.pccomponentes.com/gigabyte_geforce_gtx_970_windforce_3x_oc_4gb_ddr5.html

El chollo de AMD con el 10% más de rendimiento comienza por 20€ más, a partir de 359€ y con sapphire como inicio de acceso (junto a XFX, desde luego no gigabyte, ni asus, etc):

http://www.pccomponentes.com/sapphire_r9_390_nitro_tri_x_oc_8gb_gddr5.html

Respecto a la 980 y la 390X, aquí directamente ya sabemos que la 980 es más cara que las 390X, pero cuánto más:

La más barata de las 390X en PCcomp, 449€:

http://www.pccomponentes.com/xfx_r9_390x_dual_fan_black_edition_8gb_gddr5.html

La más barata de las GTX 980, cuánto entonces:

http://www.pccomponentes.com/gigabyte_geforce_gtx_980_windforce_3x_oc_4gb_gddr5.html

Vaya por dios, un "premium" de casi 100€, 93 para ser exactos, ¿y eso para quedarse a un 4-5% detrás de la 390X? Hombre, si juegas de stock igual sí, te rinde lo mismo, pero si se te ocurre hacer OC se jodió toda la ecuación a favor de las AMD:

http://techreport.com/review/27176/geforce-gtx-980-cards-from-gigabyte-and-zotac-reviewed/5

Pues ahí están las G1 y otras animaladas con OC, tan fácil como comparar con la de referencia y si se quiere, poner la velocidad de la windforce 3x entre la G1 y la de referencia.

Con esta serie 900 está chupado alcanzar OCs estables de en torno un15% sin sobrevoltaje alguno, un poco más trasteando con éste o con la BIOS, hasta el 20% o más. Tres de tres tarjetas que he probado, tres con un 15% de mejora con OC en juegos reales, y eso que no me tocó ninguna top gama ni de las subidoras de frecuencia.

El día en que una 390 o una 390X consigan hacer esto, sin que se le fundan los plomos, que pase el vecino y avise... ;)

PD: Ya ni me molesto en argumentar el ridículo de todas las fury quedando bien por detrás, hasta el punto que claramente es la 390X quienes les pasa la mano por la cara a pesar de ser GCN 1.1 vs 1.2 y su déficit de hard de ejecución o ancho de banda al compararse a ambas, o la falta de escalabilidad de AMD con cpus de más de 4 cores en un test donde... no funcionan ninguno de los subsistemas del juego que no sean puramente el test gráfico, ya que es una pura y dura timedemo de toda la vida, que sólo machaca una secuencia de frames preestablecidos sin ningún tipo de proceso extra por parte del motor de juego que comunicarse con el API.

Cojonudo lo de AMD, que DX12 iba a aligerar su driver que si la culpa era del perro que se comió los deberes (microsoft y su API diseñada para funcionar de forma puramente seriada), y su driver DX12 es incapaz de paralelizar por encima de un quad core, menos mal que está intel con sus cpus para ayudarle a lucir, que si se hace el test en una de sus cpus... telita. :-|

Que en este timedemo lo único que se hace es enviar llamadas al API para renderizar cada frame y poco más, por favor. Y menos mal de los async shaders ahí colocados por la gracia de microsoft a última hora y en su juego para ayudarle, menos mal... [+risas]

Quien debería bajar precios es AMD, y bajarse de la parra con esas Fury, o con las 390 creyendo que sólo por arañar porcentualmente un poco a las nvidia apretadas hasta las trancas, y por ofrecer 8 GB de VRAM, ya se puede justificar su falta de margen de OC para el usuario, bajos consumos de su rival, o simplemente arquitectura más moderna y compatible con técnicas de renderizado NUEVAS (y no técnicas para garantizar que lo mismo de siempre corre un poco mejor en el hard de AMD, que es lo que son los async shaders, ni más ni menos).

No puede ser que la 390 valga algo más que la 970, y aunque menos grave, no puede ser que la 390X esté tan cerca de la 980 en precio, porque precisamente la 980 es del triplete de gpus de nvidia aquí comentados, el que está más descolocado de todos (porque simplemente, a pesar de ser una muy buena gpu, renta más hacer el esfuerzo extra de pagar 150€ e irse por la Ti, ya que proporcionalmente está ofreciendo por un 30% de precio extra, hasta un 37% más de rendimiento en esta prueba a 4K, y justo un 27% a 1080p claramente por debajo de sus posibles en picos de rendimiento, fuera de tener además más margen de OC, si se quiere ahorrar, renta claramente más quedarse en la 970 que pegar el salto a la 980, y si se quiere rendimiento... a la Ti porque tiene igual o mejor relación/rendimiento que la 980).

AMD no puede pretender jugar con las mismas cartas que nvidia cuando su cuota está en mínimos, muy a pesar de que haya llegado ya al que parece ser el fondo de cuota mínima de gpus que le toca excepto desaparición total.

Ni las fury a precios de Ti, ni las 390 a precio >970, ni la 390x a precio premium como si fuera tan distinta a la 390 o casi como una 980 (por lo menos ésa le saca casi un 20% a su hermana pequeña, no la 390x a la 390), la peor tarjeta de gama alta en precio de nvidia, que es desmerecida hasta por su top entre las geforce. Sí, nvidia la tendría que bajar, pero aquí tendría que ocurrir una cadena de bajadas y empezando por AMD.

Sobre las demás tarjetas, era de sobra conocido que la 380 está un poco por encima de la 960, y que la 950 está algo por encima de la 370, y los precios precisamente no son para tirar cohetes a favor de ninguno en estos casos. Esto qué coño va a ser competencia ni nada.
Si por un casual alguien se lee el tochaco de arriba que lo resuma. Yo me espero a que saquen la película.
Yo no se como alguien puede creerse que entre la 390x y la Fury o la Fury X solo va a haber 2 o 3 FPS de diferencia, cuando por lo general los datos que hay dicen lo contrario incluso en DX11, se un poco mas realista wwwendingo.
Dfx escribió:Yo no se como alguien puede creerse que entre la 390x y la Fury o la Fury X solo va a haber 2 o 3 FPS de diferencia, cuando por lo general los datos que hay dicen lo contrario incluso en DX11, se un poco mas realista wwwendingo.



Le falta un poco de ritmo y bailar una canción:


https://www.youtube.com/watch?v=EIPggCgYK38
wwwendigo escribió:El chollo de AMD con el 10% más de rendimiento comienza por 20€ más, a partir de 359€ y con sapphire como inicio de acceso (junto a XFX, desde luego no gigabyte, ni asus, etc):


para que quieres gigabyte, asus si luego se calientan como una perra con la porqueria de refrigeracion que ponen.
Menudo tocho se a marcado el amigo wwendigo.

Al 4 párrafo he tenido q dejar de leer.

Resumen: NVIDIA es la empresa "buena" , "mas barata" , el OC es lo q todo hombre necesita en su vida, NVIDIA OS ama

xD
aquí hay gente que está a sueldo en Nvidia. Sino, no lo entiendo...
Justo en momento en el que decido dar el salto a una NVIDIA, tras varios años con AMD, resulta que en DX12 funcionan algo mejor.

Veremos si esto se traduce en un mejor rendimiento en juegos y si vemos una competencia más dura entre los dos grandes fabricantes del sector.

(Ojo, no me arrepiento, el cambio ha sido espectacular y no podía estar más contento)
wwwendigo escribió:Me encanta ver cómo alguna gente decide ignorar el casi 20% de rendimiento extra que le saca la 980 Ti a la Fury X en este test (así de serie, que como todos sabemos, la 980 Ti va apretada de frecuencias como las fury X, claro), o cómo la propia AMD se "ownea" como les gusta decir a algunos, con la 390x (aka, 290X OC edition que tengo el culo tan apretado de OC que no subo nada, el único mérito real de la serie 390 es haber estandarizado el uso de memorias de mayor frecuencia y calidad que en la serie 290, y por tanto mejorar de forma REAL en todo test que esté limitando por ancho de banda, y no por frecuencia, que ésa se la subo yo, gracias), lo cual es especialmente gravoso porque resulta que Fiji simplemente no tiene margen de OC para arriba (como sí tenía algo las hawaii originales, e incluso a la misma altura si no un poco más, que no es un gran mérito tampoco, las 390 vs las Fiji).

Y cómo acaban haciéndose colosales gallardas porque una 390X le saca a una 980 el asombroso, cágate lorito, magen de ¡¡¡3 putos frames extra a 1080p!!!, ni más ni menos que un "poderoso" 4,34% extra de rendimiento, eso sí, la Fury normal y la nano rindiendo aún menos que la 390X, para nada reseñable, "hoyga!" XD, hasta el punto de que empatan a 4K con la pobre y derrotada 980 :

Imagen

Colosal de la muerte, vamos. Urra AMD, urra, y tal y tal. Tu 390 está en esta prueba sobre un 10% por encima de la 970, y tu 390X supera por menos de un 5% a la 390X a la 980, ¡¡qué gran valor de mercado!! pena que esto inhabilite totalmente el mal rendimiento relativo de tus "top ends" con serios problemas de rendimiento como las Fiji, que parece que están ahí por estar, ya que no escalan ni una pizca decentemente su rendimiento respecto a Hawaii, porque para ganar nada o casi nada, no se paga ese extra y menos al precio de la 980 Ti... :cool:

Que yo sepa, las 390 se venden claramente más caras ya que las 970, y las 390X aunque sí son algo más baratas que las 980, no es precisamente por un margen de aúpa.

Se le añade a la ecuación la falta total de capacidad de OC de esas 390 (por cierto, que todas las que se usan en pruebas vienen con preOC de fábrica a mayores del propio definido por AMD, sí, también las nvidia, pero es que las nvidia aunque fueran G1, que no lo son las usadas, seguirían teniendo un buen stock de OC bajo el capó, de hecho posiblemente más reserva, por ir más holgadas de fábrica), y tenemos unas gráficas la hostia de competitivas con un tipo de usuarios que ya sabemos, jamás de los jamases van a subirles de vueltas a sus gráficas, sálvenos dios de ver esa aberración de hacer OC a una gráfica. :-|

Mirando rápidamente en una tienda como PCcomponentes a ver el chollazo que ofrece para DX12 AMD, como Pccomponentes, veo buscando las gráficas más baratas en cada modelo mencionado:

GTX 970: 339€ la miniITX de Gigabyte, 345€ la windforce usada en la review de techreport, que por cierto, no tiene nada que envidiar a otras personalizadas porque ésta la he probado personalmente (15-20% de rendimiento extra con OC, por lo menos en los datos preliminares que tengo registrados con juegos como Ark), y además de silenciosa, fresquísima aunque no tenga backplate ni más OC de fábrica como la G1, incluso la muy mamona se permitía el lujo de mantenerse bastante fresca en un SLI donde le tocaba el peor lado, vamos que con una caja de alta capacidad de circulación es factible, al contrario de lo que pensaba antes, mantener un SLI de este tipo de tarjetas (otros modelos como la MSI que tengo sufrirían más):

http://www.pccomponentes.com/gigabyte_geforce_gtx970_itx_oc_4gb_gddr5.html

http://www.pccomponentes.com/gigabyte_geforce_gtx_970_windforce_3x_oc_4gb_ddr5.html

El chollo de AMD con el 10% más de rendimiento comienza por 20€ más, a partir de 359€ y con sapphire como inicio de acceso (junto a XFX, desde luego no gigabyte, ni asus, etc):

http://www.pccomponentes.com/sapphire_r9_390_nitro_tri_x_oc_8gb_gddr5.html

Respecto a la 980 y la 390X, aquí directamente ya sabemos que la 980 es más cara que las 390X, pero cuánto más:

La más barata de las 390X en PCcomp, 449€:

http://www.pccomponentes.com/xfx_r9_390x_dual_fan_black_edition_8gb_gddr5.html

La más barata de las GTX 980, cuánto entonces:

http://www.pccomponentes.com/gigabyte_geforce_gtx_980_windforce_3x_oc_4gb_gddr5.html

Vaya por dios, un "premium" de casi 100€, 93 para ser exactos, ¿y eso para quedarse a un 4-5% detrás de la 390X? Hombre, si juegas de stock igual sí, te rinde lo mismo, pero si se te ocurre hacer OC se jodió toda la ecuación a favor de las AMD:

http://techreport.com/review/27176/geforce-gtx-980-cards-from-gigabyte-and-zotac-reviewed/5

Pues ahí están las G1 y otras animaladas con OC, tan fácil como comparar con la de referencia y si se quiere, poner la velocidad de la windforce 3x entre la G1 y la de referencia.

Con esta serie 900 está chupado alcanzar OCs estables de en torno un15% sin sobrevoltaje alguno, un poco más trasteando con éste o con la BIOS, hasta el 20% o más. Tres de tres tarjetas que he probado, tres con un 15% de mejora con OC en juegos reales, y eso que no me tocó ninguna top gama ni de las subidoras de frecuencia.

El día en que una 390 o una 390X consigan hacer esto, sin que se le fundan los plomos, que pase el vecino y avise... ;)

PD: Ya ni me molesto en argumentar el ridículo de todas las fury quedando bien por detrás, hasta el punto que claramente es la 390X quienes les pasa la mano por la cara a pesar de ser GCN 1.1 vs 1.2 y su déficit de hard de ejecución o ancho de banda al compararse a ambas, o la falta de escalabilidad de AMD con cpus de más de 4 cores en un test donde... no funcionan ninguno de los subsistemas del juego que no sean puramente el test gráfico, ya que es una pura y dura timedemo de toda la vida, que sólo machaca una secuencia de frames preestablecidos sin ningún tipo de proceso extra por parte del motor de juego que comunicarse con el API.

Cojonudo lo de AMD, que DX12 iba a aligerar su driver que si la culpa era del perro que se comió los deberes (microsoft y su API diseñada para funcionar de forma puramente seriada), y su driver DX12 es incapaz de paralelizar por encima de un quad core, menos mal que está intel con sus cpus para ayudarle a lucir, que si se hace el test en una de sus cpus... telita. :-|

Que en este timedemo lo único que se hace es enviar llamadas al API para renderizar cada frame y poco más, por favor. Y menos mal de los async shaders ahí colocados por la gracia de microsoft a última hora y en su juego para ayudarle, menos mal... [+risas]

Quien debería bajar precios es AMD, y bajarse de la parra con esas Fury, o con las 390 creyendo que sólo por arañar porcentualmente un poco a las nvidia apretadas hasta las trancas, y por ofrecer 8 GB de VRAM, ya se puede justificar su falta de margen de OC para el usuario, bajos consumos de su rival, o simplemente arquitectura más moderna y compatible con técnicas de renderizado NUEVAS (y no técnicas para garantizar que lo mismo de siempre corre un poco mejor en el hard de AMD, que es lo que son los async shaders, ni más ni menos).

No puede ser que la 390 valga algo más que la 970, y aunque menos grave, no puede ser que la 390X esté tan cerca de la 980 en precio, porque precisamente la 980 es del triplete de gpus de nvidia aquí comentados, el que está más descolocado de todos (porque simplemente, a pesar de ser una muy buena gpu, renta más hacer el esfuerzo extra de pagar 150€ e irse por la Ti, ya que proporcionalmente está ofreciendo por un 30% de precio extra, hasta un 37% más de rendimiento en esta prueba a 4K, y justo un 27% a 1080p claramente por debajo de sus posibles en picos de rendimiento, fuera de tener además más margen de OC, si se quiere ahorrar, renta claramente más quedarse en la 970 que pegar el salto a la 980, y si se quiere rendimiento... a la Ti porque tiene igual o mejor relación/rendimiento que la 980).

AMD no puede pretender jugar con las mismas cartas que nvidia cuando su cuota está en mínimos, muy a pesar de que haya llegado ya al que parece ser el fondo de cuota mínima de gpus que le toca excepto desaparición total.

Ni las fury a precios de Ti, ni las 390 a precio >970, ni la 390x a precio premium como si fuera tan distinta a la 390 o casi como una 980 (por lo menos ésa le saca casi un 20% a su hermana pequeña, no la 390x a la 390), la peor tarjeta de gama alta en precio de nvidia, que es desmerecida hasta por su top entre las geforce. Sí, nvidia la tendría que bajar, pero aquí tendría que ocurrir una cadena de bajadas y empezando por AMD.

Sobre las demás tarjetas, era de sobra conocido que la 380 está un poco por encima de la 960, y que la 950 está algo por encima de la 370, y los precios precisamente no son para tirar cohetes a favor de ninguno en estos casos. Esto qué coño va a ser competencia ni nada.


¿Crees q alguien se lee tus tochos?
kakarot88 escribió:
¿Crees q alguien se lee tus tochos?


¿Crees que tú podrías ser un poquito menos egocéntrico y pensar que lo que a ti no te importa, no representa todo el mundo? Sí, hay gente que lee "mis tochos". Por cierto, gracias por comentarios constructivos, debates vivos y bien respondidos como el tuyo. "Intelectual".

Si no te gusta lo que escribo, tan fácil como que no lo leas, increíble pero sí, además de "ignorar" tienes la opción de pasar al siguiente comentario sin leer todos uno tras uno, no seas zote. Que alguno de cansino pasáis a lo desagradable, si no me quieres leer, NO ME LEAS pero no des por saco. Ignórame si te cuesta tanto darle al "scroll", que a mí me importa un higo que me leas o no.

[facepalm]


@Dfx

No es una cuestión de "fe" ni católica ni metodista, es una cuestión de los datos aportados:

Imagen

¿Cuál es la diferencia que ves aquí entre la Fury X y la 390X? Repito, no es una cuestión de "fe", es lo que hay, y por cierto es algo que se ha visto antes en algunos juegos donde la Fury X apenas es capaz de sacar diferencia contra la 390X, no es tan anecdótico, aunque en la media de éstos saque una ventaja buena a la 390X (bueno, más que buena más perceptible), repito, aquí son 3 frames, y en concreto un 4% de rendimiento extra, a 4K no mejora enormemente la situación, ya que fuera del bajo rendimiento general (30 fps o menos en las AMD de las que se habla), sólo se le saca un 11% de rendimiento a la 390x, muy poca diferencia para una tarjeta que vale 200€ más en el mercado, y con grandes peros como la VRAM usada (que no creo que sea un GRAN problema, pero dado que sus hermanas menores tienen más, y su competidor principal también, sí es algo ya para señalar).

Si quieres te agarras a las medias y así la Fury no pinta tan "mal", pero lo que es impepinable es que en este primer juego DX12 algo está yendo o muy mal en las fury, o muy bien en las 390, lo que prefieras:

http://www.techpowerup.com/reviews/AMD/R9_Nano/30.html

Sea como sea, las Fury incluso de media no están justificando muy bien su precio, pero en este test DX12, menos. Y debería despegarse más de las Hawaii, ya que es GCN 1.2 vs 1.1, y entre otras hay mejoras y correcciones contra 1.1 usado en Hawaii que justificarían, teóricamente, un mejor rendimiento para DX12 (subsistemas de caché varios, y una mejor gestión de temas que tienen que ver con los archivos de registros, fuera de la teselación "como debe ser" que falló con 1.1).

En ese mismo link, si investigas el rendimiento en los distintos títulos, observarás que esto que pasa con Fable Legends pasa también con otros títulos.

¿Cuántas veces le ha pasado a la 980 Ti que rinde casi igual que la 980, fuera de coger y forzar cpudependencia en una prueba? Eso sí que no lo ves, así que aquí sí se está señalando una anomalía más que real.


@andapinchao

para que quieres gigabyte, asus si luego se calientan como una perra con la porqueria de refrigeracion que ponen.


¿Para qué las quiero? Bueno, acaba de pasar una Gigabyte por mi sistema y te aseguro que de "porquería" de refrigeración, nada de nada. De las mejores sin irse a superprecios, por lo menos con las nvidia así es, de las Gigabyte he visto unas cuantas y pocas, muy pocas veces, su refrigeración es negligente.

Ver a una 970 con OC y sobrevoltaje, no pasar de 60ºC, y no ser además ruidosa, no creo que sea resultado de tener una "porquería" de refrigeración. Y las fases y demás, las refrigera, así que cumple perfectamente.

¿La mini ITX GTX 960? Otro tanto, no se calentaba ni un poco por tralla que le dieras a pesar de que mucha gente decía que debía ser una mierda por ser tan "pequeña", pero de eso nada, comprobado en directo.

Sobre Asus, depende de qué modelo hablemos, pero las DirectCU que yo he visto cumplían sobradamente, eso sí, más optimizadas para el ruido que para la mejor refrigeración, pero vamos si cumplían.

Igual lo que pasa es que en tarjetas AMD no cumplen, yo tengo experiencia con las Asus/Gigabyte y para nvidia porque pasa alguna de vez en cuando por alguno de mis equipos de "paseo", y cumplir cumplen mejor que la media.

¿Mierda? Niet, de eso nada. [pos eso]

@evilkainn_

El resumen es más en el otro sentido (espero que no acabes leyendo todo el tocho previo antes de contestarte a ti):

AMD no es la empresa del pueblo que algunos se emperran en defender, no pone esos precios ajustados que se le dice, de hecho los sube (caso 370, y en menor medida "justificado" por el OC de serie y 8 GB de VRAM, caso de las 390, pero ya pasó antes, caso 270 vs 7800, etc).

Nvidia no es santa, pero querer ver que en DX12 rinde mejor AMD, cuando la 980 Ti está totalmente sola en el podio de rendimiento, y eso sí, las 390 están rindiendo bastante bien en este juego, es querer fantasear. Más cuando se ve un rendimiento similar al visto de media en juegos DX11, aunque sea cierto que las 390 han quedado en una posición especialmente fuerte justo en este test, pero no sólo contra las nvidia si no contra las propia Fury (que su vez han quedado muy cuestionadas si las comparamos con las nvidia, algo que la gente se olvida de hacer, claro).

No sé tú, pero aquí la única que ha bajado precios últimamente es nvidia (sí, recordemos toda su parrilla de lanzamientos de la serie 900 para comprobarlo, si hace falta), y eso desde luego no canoniza, pero lo que sí sataniza es el comportamiento de AMD que parece un pollo descabezado con sus gamas y precios. Lo peor es que hay gente defendiendo que ponga precios como 650$ de MSRP, clavados a la 980 Ti, con las Fury x o las Nano.... venga hombre. [noop]

Si ha cogido las previas 290, y las ha subido de precio, eso sí, con más VRAM y algo más rápida ésta y la gpu apretadita ya... pero no me jodas, que las 290X se vendían como mucho por algo más de 300€ hasta no hace mucho, y las 390X están en el mercado a partir de 450 lereles.
Yo me lo he leído XD
En cuanto a AMD me alegra que DX12 y su "nueva" generación de gpus presenten batalla, hace un año cuando compré mi 970 a mi modo de ver sólo existía Nvidia. Ahora la 390x se me antoja un modelo especialmente atractivo y a un precio excelente
Dennggar escribió:Justo en momento en el que decido dar el salto a una NVIDIA, tras varios años con AMD, resulta que en DX12 funcionan algo mejor.

Veremos si esto se traduce en un mejor rendimiento en juegos y si vemos una competencia más dura entre los dos grandes fabricantes del sector.

(Ojo, no me arrepiento, el cambio ha sido espectacular y no podía estar más contento)


No eres el unico que ha dado el salto a NVIDIA, aun asi en DX11 se nota que va mejor, sobretodo para mi que voy con un FX

@wwwendigo no es cuestion de fe, es cuestion de que todos los otros test dicen lo contrario y hay mucha mas diferencia, ya sea por drivers o lo que sea, las fury no estan dando el rendimiento que deberian de dar en esa tabla, no es un escalado normal, ni hay cuellos de botella de cpu, ni nada.
Krain escribió:Yo me lo he leído XD
En cuanto a AMD me alegra que DX12 y su "nueva" generación de gpus presenten batalla, hace un año cuando compré mi 970 a mi modo de ver sólo existía Nvidia. Ahora la 390x se me antoja un modelo especialmente atractivo y a un precio excelente


Hombre, gracias sacrificado... XD

La 390X llama la atención en ese test, sí, pero tan llamativo es su buen rendimiento como el anómalamente bajo de las Fury, que las 980 Ti se quedan muy solitas arriba, y las 980/970 cierto que van algo peor que las 390 en general, pero tampoco ningún drama (lo que sí lo es, es que estas dos nvidia estén tan cerca de las Fury).

Yo no recomiendo gasto ninguno hasta la siguiente generación y salto de nodo, más cuando tienes no ya una gráfica de este nodo, si no de la última hornada de generaciones. Las difererencias de rendimiento que podrás ver serán escasas excepto que te vayas a las top gama (980 ti y, cuando van como debieran, las Fury).

Pero bueno, si se trata de trastear para probar, ya sabemos que la lógica de la evolución del rendimiento no es la que funciona.... que se paga más por probar cosas nuevas que por mejorar en sí. [+risas]

Dfx escribió:No eres el unico que ha dado el salto a NVIDIA, aun asi en DX11 se nota que va mejor, sobretodo para mi que voy con un FX


Eso es un tema del driver y es tanto culpa de microsoft como de AMD (o visto de otra forma, mérido de nvidia), y esto lo digo por lo siguiente:

El problema principal con el driver bajo DX11 (y anteriores DX) es que su naturaleza era seriada en funcionamiento interno y además diseñado para funcionar en un único proceso, esto es un problema totalmente creado por microsoft al descuidar en esta parte el diseño de su API (como mínimo desde DX10 y con la proliferación de los quad core en los PCs, debería haber previsto y rediseñado su API para no tener a estas alturas este punto flaco).

Después, la "solución" que ha dado nvidia es a su vez la que AMD no, que es trabajar en el driver DX11 para forzar el paralelismo de las llamadas al API incluso cuando ésta no está diseñada para esto, supongo que analizando en colas de llamadas cuáles pueden ser "adelantadas" y similares.

Es un mérito de nvidia en este caso, y "desmérito" de AMD por la parte que le toca (yo le echaría más en cara que soportara tan condenadamente mal las command lists de DX11 durante tantos años, que eso sí era un problema de soporte que no tiene que ver con microsoft ni su mal diseño del API), pero el responsable principal sigue siendo Microsoft.

AMD no debería tener porqué parchear el driver ni aumentar su complejidad con capas extra de software para analizar las llamadas hacia el API, para conseguir solucionar un problema del API y su diseño. Pero es lo que hay, y con un FX se tiene que notar más.
kakarot88 escribió:
wwwendigo escribió:Me encanta ver cómo alguna gente decide ignorar el casi 20% de rendimiento extra que le saca la 980 Ti a la Fury X en este test (así de serie, que como todos sabemos, la 980 Ti va apretada de frecuencias como las fury X, claro), o cómo la propia AMD se "ownea" como les gusta decir a algunos, con la 390x (aka, 290X OC edition que tengo el culo tan apretado de OC que no subo nada, el único mérito real de la serie 390 es haber estandarizado el uso de memorias de mayor frecuencia y calidad que en la serie 290, y por tanto mejorar de forma REAL en todo test que esté limitando por ancho de banda, y no por frecuencia, que ésa se la subo yo, gracias), lo cual es especialmente gravoso porque resulta que Fiji simplemente no tiene margen de OC para arriba (como sí tenía algo las hawaii originales, e incluso a la misma altura si no un poco más, que no es un gran mérito tampoco, las 390 vs las Fiji).

Y cómo acaban haciéndose colosales gallardas porque una 390X le saca a una 980 el asombroso, cágate lorito, magen de ¡¡¡3 putos frames extra a 1080p!!!, ni más ni menos que un "poderoso" 4,34% extra de rendimiento, eso sí, la Fury normal y la nano rindiendo aún menos que la 390X, para nada reseñable, "hoyga!" XD, hasta el punto de que empatan a 4K con la pobre y derrotada 980 :

Imagen

Colosal de la muerte, vamos. Urra AMD, urra, y tal y tal. Tu 390 está en esta prueba sobre un 10% por encima de la 970, y tu 390X supera por menos de un 5% a la 390X a la 980, ¡¡qué gran valor de mercado!! pena que esto inhabilite totalmente el mal rendimiento relativo de tus "top ends" con serios problemas de rendimiento como las Fiji, que parece que están ahí por estar, ya que no escalan ni una pizca decentemente su rendimiento respecto a Hawaii, porque para ganar nada o casi nada, no se paga ese extra y menos al precio de la 980 Ti... :cool:

Que yo sepa, las 390 se venden claramente más caras ya que las 970, y las 390X aunque sí son algo más baratas que las 980, no es precisamente por un margen de aúpa.

Se le añade a la ecuación la falta total de capacidad de OC de esas 390 (por cierto, que todas las que se usan en pruebas vienen con preOC de fábrica a mayores del propio definido por AMD, sí, también las nvidia, pero es que las nvidia aunque fueran G1, que no lo son las usadas, seguirían teniendo un buen stock de OC bajo el capó, de hecho posiblemente más reserva, por ir más holgadas de fábrica), y tenemos unas gráficas la hostia de competitivas con un tipo de usuarios que ya sabemos, jamás de los jamases van a subirles de vueltas a sus gráficas, sálvenos dios de ver esa aberración de hacer OC a una gráfica. :-|

Mirando rápidamente en una tienda como PCcomponentes a ver el chollazo que ofrece para DX12 AMD, como Pccomponentes, veo buscando las gráficas más baratas en cada modelo mencionado:

GTX 970: 339€ la miniITX de Gigabyte, 345€ la windforce usada en la review de techreport, que por cierto, no tiene nada que envidiar a otras personalizadas porque ésta la he probado personalmente (15-20% de rendimiento extra con OC, por lo menos en los datos preliminares que tengo registrados con juegos como Ark), y además de silenciosa, fresquísima aunque no tenga backplate ni más OC de fábrica como la G1, incluso la muy mamona se permitía el lujo de mantenerse bastante fresca en un SLI donde le tocaba el peor lado, vamos que con una caja de alta capacidad de circulación es factible, al contrario de lo que pensaba antes, mantener un SLI de este tipo de tarjetas (otros modelos como la MSI que tengo sufrirían más):

http://www.pccomponentes.com/gigabyte_geforce_gtx970_itx_oc_4gb_gddr5.html

http://www.pccomponentes.com/gigabyte_geforce_gtx_970_windforce_3x_oc_4gb_ddr5.html

El chollo de AMD con el 10% más de rendimiento comienza por 20€ más, a partir de 359€ y con sapphire como inicio de acceso (junto a XFX, desde luego no gigabyte, ni asus, etc):

http://www.pccomponentes.com/sapphire_r9_390_nitro_tri_x_oc_8gb_gddr5.html

Respecto a la 980 y la 390X, aquí directamente ya sabemos que la 980 es más cara que las 390X, pero cuánto más:

La más barata de las 390X en PCcomp, 449€:

http://www.pccomponentes.com/xfx_r9_390x_dual_fan_black_edition_8gb_gddr5.html

La más barata de las GTX 980, cuánto entonces:

http://www.pccomponentes.com/gigabyte_geforce_gtx_980_windforce_3x_oc_4gb_gddr5.html

Vaya por dios, un "premium" de casi 100€, 93 para ser exactos, ¿y eso para quedarse a un 4-5% detrás de la 390X? Hombre, si juegas de stock igual sí, te rinde lo mismo, pero si se te ocurre hacer OC se jodió toda la ecuación a favor de las AMD:

http://techreport.com/review/27176/geforce-gtx-980-cards-from-gigabyte-and-zotac-reviewed/5

Pues ahí están las G1 y otras animaladas con OC, tan fácil como comparar con la de referencia y si se quiere, poner la velocidad de la windforce 3x entre la G1 y la de referencia.

Con esta serie 900 está chupado alcanzar OCs estables de en torno un15% sin sobrevoltaje alguno, un poco más trasteando con éste o con la BIOS, hasta el 20% o más. Tres de tres tarjetas que he probado, tres con un 15% de mejora con OC en juegos reales, y eso que no me tocó ninguna top gama ni de las subidoras de frecuencia.

El día en que una 390 o una 390X consigan hacer esto, sin que se le fundan los plomos, que pase el vecino y avise... ;)

PD: Ya ni me molesto en argumentar el ridículo de todas las fury quedando bien por detrás, hasta el punto que claramente es la 390X quienes les pasa la mano por la cara a pesar de ser GCN 1.1 vs 1.2 y su déficit de hard de ejecución o ancho de banda al compararse a ambas, o la falta de escalabilidad de AMD con cpus de más de 4 cores en un test donde... no funcionan ninguno de los subsistemas del juego que no sean puramente el test gráfico, ya que es una pura y dura timedemo de toda la vida, que sólo machaca una secuencia de frames preestablecidos sin ningún tipo de proceso extra por parte del motor de juego que comunicarse con el API.

Cojonudo lo de AMD, que DX12 iba a aligerar su driver que si la culpa era del perro que se comió los deberes (microsoft y su API diseñada para funcionar de forma puramente seriada), y su driver DX12 es incapaz de paralelizar por encima de un quad core, menos mal que está intel con sus cpus para ayudarle a lucir, que si se hace el test en una de sus cpus... telita. :-|

Que en este timedemo lo único que se hace es enviar llamadas al API para renderizar cada frame y poco más, por favor. Y menos mal de los async shaders ahí colocados por la gracia de microsoft a última hora y en su juego para ayudarle, menos mal... [+risas]

Quien debería bajar precios es AMD, y bajarse de la parra con esas Fury, o con las 390 creyendo que sólo por arañar porcentualmente un poco a las nvidia apretadas hasta las trancas, y por ofrecer 8 GB de VRAM, ya se puede justificar su falta de margen de OC para el usuario, bajos consumos de su rival, o simplemente arquitectura más moderna y compatible con técnicas de renderizado NUEVAS (y no técnicas para garantizar que lo mismo de siempre corre un poco mejor en el hard de AMD, que es lo que son los async shaders, ni más ni menos).

No puede ser que la 390 valga algo más que la 970, y aunque menos grave, no puede ser que la 390X esté tan cerca de la 980 en precio, porque precisamente la 980 es del triplete de gpus de nvidia aquí comentados, el que está más descolocado de todos (porque simplemente, a pesar de ser una muy buena gpu, renta más hacer el esfuerzo extra de pagar 150€ e irse por la Ti, ya que proporcionalmente está ofreciendo por un 30% de precio extra, hasta un 37% más de rendimiento en esta prueba a 4K, y justo un 27% a 1080p claramente por debajo de sus posibles en picos de rendimiento, fuera de tener además más margen de OC, si se quiere ahorrar, renta claramente más quedarse en la 970 que pegar el salto a la 980, y si se quiere rendimiento... a la Ti porque tiene igual o mejor relación/rendimiento que la 980).

AMD no puede pretender jugar con las mismas cartas que nvidia cuando su cuota está en mínimos, muy a pesar de que haya llegado ya al que parece ser el fondo de cuota mínima de gpus que le toca excepto desaparición total.

Ni las fury a precios de Ti, ni las 390 a precio >970, ni la 390x a precio premium como si fuera tan distinta a la 390 o casi como una 980 (por lo menos ésa le saca casi un 20% a su hermana pequeña, no la 390x a la 390), la peor tarjeta de gama alta en precio de nvidia, que es desmerecida hasta por su top entre las geforce. Sí, nvidia la tendría que bajar, pero aquí tendría que ocurrir una cadena de bajadas y empezando por AMD.

Sobre las demás tarjetas, era de sobra conocido que la 380 está un poco por encima de la 960, y que la 950 está algo por encima de la 370, y los precios precisamente no son para tirar cohetes a favor de ninguno en estos casos. Esto qué coño va a ser competencia ni nada.


¿Crees q alguien se lee tus tochos?


pues tiene razon. mi 980 "no TI" con OC, le saca un buen margen a la fury x en tests como 3d mark, luego en "juego real" imagino que se apretara la cosa,, pero siendo la 980 que tengo una normalita y una grafica de ya hace un año.... imaginaros una 980 tocha... amd tiene que ponerse las pilas
wwwendigo escribió:@andapinchao

para que quieres gigabyte, asus si luego se calientan como una perra con la porqueria de refrigeracion que ponen.


¿Para qué las quiero? Bueno, acaba de pasar una Gigabyte por mi sistema y te aseguro que de "porquería" de refrigeración, nada de nada. De las mejores sin irse a superprecios, por lo menos con las nvidia así es, de las Gigabyte he visto unas cuantas y pocas, muy pocas veces, su refrigeración es negligente.

Ver a una 970 con OC y sobrevoltaje, no pasar de 60ºC, y no ser además ruidosa, no creo que sea resultado de tener una "porquería" de refrigeración. Y las fases y demás, las refrigera, así que cumple perfectamente.

¿La mini ITX GTX 960? Otro tanto, no se calentaba ni un poco por tralla que le dieras a pesar de que mucha gente decía que debía ser una mierda por ser tan "pequeña", pero de eso nada, comprobado en directo.

Sobre Asus, depende de qué modelo hablemos, pero las DirectCU que yo he visto cumplían sobradamente, eso sí, más optimizadas para el ruido que para la mejor refrigeración, pero vamos si cumplían.

Igual lo que pasa es que en tarjetas AMD no cumplen, yo tengo experiencia con las Asus/Gigabyte y para nvidia porque pasa alguna de vez en cuando por alguno de mis equipos de "paseo", y cumplir cumplen mejor que la media.


Pues eso es, me estas contando historias de nvidia .

En amd son una castaña, cuantos han pasado por el foro diciendo que les pasaba de 90 grados con esos ensambladores y de msi tambien , por lo menos la gaming. Hasta leer que 94 grados es normal [carcajad]
http://www.elotrolado.net/hilo_problema-grafica-demasiado-caliente-o-fuente-con-poco-amperaje_2100811
http://www.elotrolado.net/hilo_ayuda-perfil-afterburner-para-r-290-windforce_2041056

Pues eso, una guarreria de refrigeraciones. Windforce, twinforce , directcu .... Un mojon se comen en AMD.

Vamos que antes hay que mirar xfx , sapphire, powercolor... y si ademas estan menos caras pues mejor.
Dfx escribió:
Dennggar escribió:Justo en momento en el que decido dar el salto a una NVIDIA, tras varios años con AMD, resulta que en DX12 funcionan algo mejor.

Veremos si esto se traduce en un mejor rendimiento en juegos y si vemos una competencia más dura entre los dos grandes fabricantes del sector.

(Ojo, no me arrepiento, el cambio ha sido espectacular y no podía estar más contento)


No eres el unico que ha dado el salto a NVIDIA, aun asi en DX11 se nota que va mejor, sobretodo para mi que voy con un FX



En mi caso concreto, la razón principal fue dejar atrás el CF, que no me dio muy buenos resultados. Ademas, para cuando salgan juegos diseñados para DX12, muchos habremos cambiado de gráfica, por lo que no es algo que me preocupe.
ciclito está baneado por "saltarse el ban con clon"
Yo me leo los tochos de wwwendigo siempre y muchas veces aprendo algo nuevo. Asi que en mi caso, agradecer @wwwendigo que comparta sus conocimientos con nosotros, al que no le gusten como el dice que no los lea, no veo necesaria la critica destructiva que en ocasiones se le hace y encima para mas inri sin argumentos.

Es curioso como los benchmarks de Ashes of the Singularity o Fable Legends no estan disponibles para descargar de manera gratuita para cualquier usuario. Teniendo en cuenta que el 82% de graficas maxwell vendidas a nivel mundial son de los verdes, sabiendo el nivel de oc que guardan estas, incluso en su chip completo.... no me extrañaria que esos numeros que salen en las tablas de resultados de las diferentes reviews se quedaran a la altura del betun al aplicar oc altos en maxwell (facilmente alcanzable incluso sin aplicar voltaje), aun se dispararian las diferencias a favor de nvidia dejado a amd en situacion embarazosa... si la mayoria de usuarios que se han agenciado graficas como la 980ti o la 980 empezaran a subir resultados con oc de forma masiva en foros y demas, amd no se donde tendria que meterse [+risas]

Por otro lado habria que probar como funcionan las cargas de la gpus en esos benchs citados, porque si es como en el demo Infiltrator hecha con el Unreal Engine 4 y DX12, donde a 1080p las cargas en mis 980ti en single son del 40% de media seria ridiculo comparar ya que esos numeros no seria reales. Quiero pensar que tanto en Fable Legends como en Ashes of the Singularity las gpus van a todo trapo durante todo el bench, pero claro curiosamente tampoco he visto ningun video por youtube la monitorizacion de como esta trabajando la grafica durante el test...

Asi que yo me temo mucho que las diferencias que ahi se plasman no son para nada a tener en cuenta, pondria la mano en el fuego diciendo que la 980ti aun le sacaria un plus de un 15 a un 20% sobre esas diferencias ya existentes vs la furyx y no creo que me quemase [fumando]
andapinchao escribió:
wwwendigo escribió:@andapinchao

para que quieres gigabyte, asus si luego se calientan como una perra con la porqueria de refrigeracion que ponen.


¿Para qué las quiero? Bueno, acaba de pasar una Gigabyte por mi sistema y te aseguro que de "porquería" de refrigeración, nada de nada. De las mejores sin irse a superprecios, por lo menos con las nvidia así es, de las Gigabyte he visto unas cuantas y pocas, muy pocas veces, su refrigeración es negligente.

Ver a una 970 con OC y sobrevoltaje, no pasar de 60ºC, y no ser además ruidosa, no creo que sea resultado de tener una "porquería" de refrigeración. Y las fases y demás, las refrigera, así que cumple perfectamente.

¿La mini ITX GTX 960? Otro tanto, no se calentaba ni un poco por tralla que le dieras a pesar de que mucha gente decía que debía ser una mierda por ser tan "pequeña", pero de eso nada, comprobado en directo.

Sobre Asus, depende de qué modelo hablemos, pero las DirectCU que yo he visto cumplían sobradamente, eso sí, más optimizadas para el ruido que para la mejor refrigeración, pero vamos si cumplían.

Igual lo que pasa es que en tarjetas AMD no cumplen, yo tengo experiencia con las Asus/Gigabyte y para nvidia porque pasa alguna de vez en cuando por alguno de mis equipos de "paseo", y cumplir cumplen mejor que la media.


Pues eso es, me estas contando historias de nvidia .

En amd son una castaña, cuantos han pasado por el foro diciendo que les pasaba de 90 grados con esos ensambladores y de msi tambien , por lo menos la gaming. Hasta leer que 94 grados es normal [carcajad]
http://www.elotrolado.net/hilo_problema-grafica-demasiado-caliente-o-fuente-con-poco-amperaje_2100811
http://www.elotrolado.net/hilo_ayuda-perfil-afterburner-para-r-290-windforce_2041056

Pues eso, una guarreria de refrigeraciones. Windforce, twinforce , directcu .... Un mojon se comen en AMD.

Vamos que antes hay que mirar xfx , sapphire, powercolor... y si ademas estan menos caras pues mejor.



Joder, pues me extraña porque en nvidia las windforce van finas, finas. Que ya te digo que hace unos días probé una y encantado de la vida, me gustó más que mi MSI actual, que en disipación es simplemente "decente" y ya.

Pero claro, también a mí me dejó un tanto escamado ver cosas como ésta:

http://www.profesionalreview.com/2015/0 ... ng-review/

No encuentro la review que había visto en su momento, pero me refiero a que llamen "G1" a una gráfica basada en un windforce 2X, por muy sobredimensionado que esté el disipador y que lleve backplate, o que los ventiladores sean la hostia con el flujo de aire que mantienen o lo que sea, parece contradictorio con lo que se ve en nvidia:

MiniITX < Windforce 2X < Windforce 3X < G1.

Uno se espera algo distinto de una G1 y más si va montando una gpu que es tragona. De todas formas, sigo prefiriendo Gigabyte a Sapphire o XFX, sólo que conviene consultar más el modelo a comprar, porque en nvidia ya se sabe qué implica una G1 o una Windforce 3X, seguro. Sapphire y XFX tienen la "ventaja" de ser sólo fabricantes de modelos para AMD, pero sus calidades, aún cuando refrigeren bien sus soluciones o lo que sea, muchas veces dejan que desear (casos de coil whine en sapphire, a punta pala vs otros fabricantes).
@wwwendigo Yo ya te digo que he tenido una windforce 3x como tu dices en AMD y tenia como 7 grados mas que una vapor x y ademas hacia bastante mas ruido y tenia bastante menos OC. Para colmo salio ardiendo.
Y eso que era la revision que si llego a pillar de las primeras tendria que estar graciosa [carcajad]
http://elchapuzasinformatico.com/2014/01/gigabyte-detiene-la-produccion-de-sus-radeon-r9-290-windforce/

Joder, pues me extraña porque en nvidia las windforce van finas, finas.

http://elchapuzasinformatico.com/2015/05/que-hardware-fallo-mas-hasta-el-pasado-mes-de-abril-3/5/

No iran tanto que sus movidas ha tenido con nvidia tambien sin contar el servicio de RMA que ofrecen deja bastante que desear.
http://www.elotrolado.net/hilo_cuanto-tarda-gigabyte-en-la-reparacion-o-devolucion-de-una-grafica_2086183

Que tendran su pelotazo con las g1 pero que antes me pillo una Zotac , Evga o cualquier otro ensamblador.

Ya fueran la ultima cocacola del desierto que no las quiero. [carcajad] [carcajad]
Os dije que lo siguiente que tocaba era "pero es que las Nvidia con OC son mejores". Quiero mi premio XD

Y no me citeis los tochos de wwwendigo, porque lo tengo ignorado y me los tengo que tragar de todas formas XD

Ah, por cierto, la 290X le saca 5fps a la 980 y no pasa nada, pero cuando era al revés la 980 era un dios bajado del cielo y teníamos que arrodillarnos todos ante su tremendo poder. Se os ve el plumero a kilómetros. Y otra cosa... la 290X es una gráfica de hace 2 años, y le esta sacando los colores a un cacharro por el que la gente pagaba 600 euros hace 6 meses.

KailKatarn escribió:
anikilador_imperial escribió:La 290/390 matando a la 980 [plas] [plas] [plas] esto va a ser muy gracioso.



Queda mucho por ver y por demostrar aún pero vamos de momento si que sirve para que muchos aprieten el culo (y sigan comiendo owned tras owned) y eso ya es más que suficiente para echarse unas risas. Ay! estas marcas ... que malo es profesarles religiones y pasiones.



Si, si las risas me las estoy echando XD pero no por los resultados, sino por como lloran los fanboys después. Ojalá un 3DMark DX12 pronto.
Y sin llegar a directx 12 cada vez van mejor los "mierda drivers beta de amd "

Cuando la pille hacia 62 fps y ya va por 66 en el heaven ese. En el 3d mark ya va por 14500

Si van a seguir mejorando con los directx 12 pues guay. [sonrisa] [sonrisa]
andapinchao escribió:@wwwendigo Yo ya te digo que he tenido una windforce 3x como tu dices en AMD y tenia como 7 grados mas que una vapor x y ademas hacia bastante mas ruido y tenia bastante menos OC. Para colmo salio ardiendo.
Y eso que era la revision que si llego a pillar de las primeras tendria que estar graciosa [carcajad]
http://elchapuzasinformatico.com/2014/01/gigabyte-detiene-la-produccion-de-sus-radeon-r9-290-windforce/

Joder, pues me extraña porque en nvidia las windforce van finas, finas.

http://elchapuzasinformatico.com/2015/05/que-hardware-fallo-mas-hasta-el-pasado-mes-de-abril-3/5/

No iran tanto que sus movidas ha tenido con nvidia tambien sin contar el servicio de RMA que ofrecen deja bastante que desear.
http://www.elotrolado.net/hilo_cuanto-tarda-gigabyte-en-la-reparacion-o-devolucion-de-una-grafica_2086183

Que tendran su pelotazo con las g1 pero que antes me pillo una Zotac , Evga o cualquier otro ensamblador.

Ya fueran la ultima cocacola del desierto que no las quiero. [carcajad] [carcajad]


Pues yo no, mira. Precisamente ni me gusta nada Zotac, ni los diseños de eVGA me gustan a pesar de que tengan un postventa tan interesante, sobre todo con los planes de renovación.

Y hombre, por supuesto como todos los fabricantes algún modelo les sale rana, pero si consultaras la fuente original en la que se basa justo ECI.com, verías que cada 6 meses hacen un dossier sobre fallos en hardware:

http://www.hardware.fr/html/recherche/index.php

Con la búsqueda de " taux de retour" ya te salen todas.

http://www.hardware.fr/articles/934-5/c ... iques.html

En éste se basan en concreto, pero si te fijas, y miras no sólo ese dossier si no todos los previos, verás un patrón que también se observa en ese mismo dossier:

Sapphire siempre está entre los que tienen algún modelo con tasas de RMAs "premium", sin embargo Gigabyte, a pesar de que por lo que vende seguro que tiene papeletas para entrar en la estadística (en el periodo de control, 6 meses, se deben vender del modelo que entra en las tablas de RMAs un mínimo de 100 unidades, algunos fabricantes como Zotac y según modelos, ni eso, excepto que ese distribuidor sea de los grandes franceses), no aparece en muchos dossier, y ha aparecido en éste por el fiasco de las Ti GHz que vienen ya muy apretadas.

Una característica que mucha gente desconoce de las nvidia que vende Gigabyte es que, por lo menos en la mayoría de windforce 3X y las G1, el límite por TDP está modificado respecto al de nvidia, en concreto la wind 3x que pasó por mis manos tenía un TDP límite que era justo un 50% más elevado que el de referencia de nvidia para las GTX 970, alcanzando los 250W si fuera capaz de alguna forma de alcanzar semejante TDP, estaríamos hablando de tener problemas térmicos (fuera de que permita subirle además algo más de un 10% extra al TDP, una opción totalmente inútil en una gráfica con ese tdp definido).

Esto es una gran característica para el usuario que le gusta el OC y sabe lo que hace, pero también un peligro cuando se combina con falta de algo de sentido común (voltmods o mejor dicho, BIOS con voltaje subido a tope en todo el rango, esta GTX 970 subía a 1,25V si así lo deseabas, lo cual es "peligroso" si lo unes con una BIOS preparada porque el TDP puede subir bastante).

Ya te digo que silenciosa, con consumos normales pero que sin éstos la limiten, y hasta me salió con buenas memorias (casi 8200 MHz me hizo 100% estable, 8180 MHz creo que fue al final, y mira que yo en eso de las memorias no paso ni un sólo artefacto como "válido" o si detecto algún "bajón de rendimiento" por problemas de exceso de fallos de comunicación con la memoria, bajo automáticamente esto).

He tenido muchas gigabyte, y siempre me han salido bastante buenas, qué quieres que te diga. Desde la Windforce 2X GTX 560 Ti que tuve, que venía sin el chip de control de TDP al basarse en un PCB personalizado de una GTX 460 mejorada, todas las que he visto han cumplido con nota.

Ni con un palo si tal Sapphire, mira esos dossiers, y cuántos modelos suyos siempre aparecen. No es una cuestión de un modelo malo que a todos les puede salir (verás a Asus varias veces, a MSI más que Asus o Gigabyte juntos si cabe, pero son más casos puntuales que una tónica permanente como la de sapphire).

Ah, una curiosidad de esos dossiers, es que cuanto más top gama sea un modelo, más posibilidades tiene de aparecer muy arriba en RMAs que las gamas medias, cuanto menos. Y que parece que hay una relación directa entre el consumo real de cada gráfica y los fallos de estos modelos, la época de las Fermi, las GTX 580 llenaban los primeros puestos, y Sapphire aún no tenía mala fama que le empezó con las GCN.

Las Fermi fallaban más que las kepler, las kepler fallaban más que las maxwell.... todo tiene un aparente nexo de unión con el consumo y control de éste de cada generación.

A AMD le ha sentado muy mal el salto de consumos en GCN respecto a chips anteriores, sobre todo con fabricantes exclusivos como sapphire, aunque a su favor decir que de momento la Hawaii parece que algo arregló respecto a diseños anteriores, a pesar de sus consumos, porque no tiene ratios de fallos tan elevados.

Es posible que la poca diferencia entre voltajes de serie y con OC, y el tener fases de alimentación ya diseñadas como mínimo para 1,20V y una frecuencia alta, y por tanto entrega de consumos fuertes, haya evitado los fallos vistos con generaciones anteriores donde con el OC el consumo se podía despendolar (combinando OC+OV). No hay que olvidar que el consumo extra no es sólo un problema para los disipadores, también provocan fallos en los componentes que se encargan de alimentar a la cpu (sus VRMs) aunque los mantengas frescos, la carga de trabajo aumenta, y por tanto la tasa de fallos también aumenta.

Por eso no soy amigo de usar sobrevoltajes fuertes en cpus, y menos en gpus.

andapinchao escribió:Y sin llegar a directx 12 cada vez van mejor los "mierda drivers beta de amd "

Cuando la pille hacia 62 fps y ya va por 66 en el heaven ese. En el 3d mark ya va por 14500

Si van a seguir mejorando con los directx 12 pues guay. [sonrisa] [sonrisa]


Pues ya le iba siendo hora.... que DX11 y previos está ya casi muertos, si hacemos caso a lo que se dice por aquí (y seguiremos viendo juegos programados en DX9 si te distraes, aunque para muchos casos, es totalmente irrelevante el API usada dado lo que se desea crear, la verdad). [+risas]
Sapphire siempre está entre los que tienen algún modelo con tasas de RMAs "premium",

Es normal que fallen las AMD y concreto las sapphire . La que menos lleva 2 años en el mercado y la mineria estaba en lo suyo con esas gpus . No se si se hara eso todavia pero que influye en cepillarse graficas o al menos en dejarlas tocadas del ala .

https://www.youtube.com/watch?v=lfvzoDlQP7s
https://www.youtube.com/watch?v=BSn3FC_SBPA

Para esas cosas la peña no agarra nvidia.

Ha tenido modelos chungos pero como cualquier otro ha podido tener ya ves gigabyte con las 780 sin ir mas lejos.
andapinchao escribió:
Sapphire siempre está entre los que tienen algún modelo con tasas de RMAs "premium",

Es normal que fallen las AMD y concreto las sapphire . La que menos lleva 2 años en el mercado y la mineria estaba en lo suyo con esas gpus . No se si se hara eso todavia pero que influye en cepillarse graficas o al menos en dejarlas tocadas del ala .

https://www.youtube.com/watch?v=lfvzoDlQP7s
https://www.youtube.com/watch?v=BSn3FC_SBPA

Para esas cosas la peña no agarra nvidia.

Ha tenido modelos chungos pero como cualquier otro ha podido tener ya ves gigabyte con las 780 sin ir mas lejos.


Madre mia esos videos, ¿Como seria la factura de la luz en España? [+risas] [+risas] [+risas]
andapinchao escribió:
Sapphire siempre está entre los que tienen algún modelo con tasas de RMAs "premium",

Es normal que fallen las AMD y concreto las sapphire . La que menos lleva 2 años en el mercado y la mineria estaba en lo suyo con esas gpus . No se si se hara eso todavia pero que influye en cepillarse graficas o al menos en dejarlas tocadas del ala .

https://www.youtube.com/watch?v=lfvzoDlQP7s
https://www.youtube.com/watch?v=BSn3FC_SBPA

Para esas cosas la peña no agarra nvidia.

Ha tenido modelos chungos pero como cualquier otro ha podido tener ya ves gigabyte con las 780 sin ir mas lejos.


Exacto esos modelos estaba 24/7 funcionando y claro las quemaban en un plis, bastante bajo es el porcentaje de fallo.

Por lo último que leí del tema empezar de cero con GPU mining ya no era rentable, pero aun así hay bastante gente que tenia el chiringuito montado y aun las usa para ello.

Por eso hay que tener mucho cuidado con las AMD de segunda mano.

kakarot88 escribió:
Madre mia esos videos, ¿Como seria la factura de la luz en España? [+risas] [+risas] [+risas]


En España sino tenias acceso a Luz medio gratis no salia tan rentable.
Buenas tardes,

alguien me podría decir cuál de estas dos tarjetas es mejor para DX12?

http://www.asus.com/us/Graphics_Cards/STRIXR9380DC2OC2GD5GAMING/ Arquitectura GCN 1.2, DX 12 12_0
o
http://www.nvidia.es/object/geforce-gtx-960-es.html família GM206 Maxwell 2nd Generation. DX12 12_1

Datos de: http://wccftech.com/nvidia-amd-directx- ... plained/6/

Qué significa DX12 12_1?

Un saludo y gracias.
kogoll escribió:Buenas tardes,

alguien me podría decir cuál de estas dos tarjetas es mejor para DX12?

http://www.asus.com/us/Graphics_Cards/STRIXR9380DC2OC2GD5GAMING/ Arquitectura GCN 1.2, DX 12 12_0
o
http://www.nvidia.es/object/geforce-gtx-960-es.html família GM206 Maxwell 2nd Generation. DX12 12_1

Datos de: http://wccftech.com/nvidia-amd-directx- ... plained/6/

Qué significa DX12 12_1?

Un saludo y gracias.


12_0 y 12_1 son niveles de características de DX12, se supone que las Maxwell(960) soportan mas características de DX12, pero luego en los benchmarks que hemos visto, las AMD GCN 1.1 y 1.2(380) que "solo" soportan DX12 12_0 rinden mas. La razón es el cómputo asíncrono, las GCN tienen soporte hardware de esta característica mientras que las Maxwell manejan su equivalente mediante software, siendo mas ineficientes en ese sentido.

Y como apunte, la 380 ya es mas potente en DX11. No creo que en DX12 la tendencia se invierta.
anikilador_imperial escribió:
kogoll escribió:Buenas tardes,

alguien me podría decir cuál de estas dos tarjetas es mejor para DX12?

http://www.asus.com/us/Graphics_Cards/STRIXR9380DC2OC2GD5GAMING/ Arquitectura GCN 1.2, DX 12 12_0
o
http://www.nvidia.es/object/geforce-gtx-960-es.html família GM206 Maxwell 2nd Generation. DX12 12_1

Datos de: http://wccftech.com/nvidia-amd-directx- ... plained/6/

Qué significa DX12 12_1?

Un saludo y gracias.


12_0 y 12_1 son niveles de características de DX12, se supone que las Maxwell(960) soportan mas características de DX12, pero luego en los benchmarks que hemos visto, las AMD GCN 1.1 y 1.2(380) que "solo" soportan DX12 12_0 rinden mas. La razón es el cómputo asíncrono, las GCN tienen soporte hardware de esta característica mientras que las Maxwell manejan su equivalente mediante software, siendo mas ineficientes en ese sentido.

Y como apunte, la 380 ya es mas potente en DX11. No creo que en DX12 la tendencia se invierta.


Muchas gracias por la respuesta.

Esos test son dx11, no? Ahi gana la 380 por que tiene más fuerza bruta. Supongo que el computo asíncrono prevalece respecto a otras características que pudiera tener la nvidia?

Hay algun test dx12 para comparar? O aún nada?

Cuál de las dos pillariais de cara al futuro?

Un saludo.
kogoll escribió:
anikilador_imperial escribió:
kogoll escribió:Buenas tardes,

alguien me podría decir cuál de estas dos tarjetas es mejor para DX12?

http://www.asus.com/us/Graphics_Cards/STRIXR9380DC2OC2GD5GAMING/ Arquitectura GCN 1.2, DX 12 12_0
o
http://www.nvidia.es/object/geforce-gtx-960-es.html família GM206 Maxwell 2nd Generation. DX12 12_1

Datos de: http://wccftech.com/nvidia-amd-directx- ... plained/6/

Qué significa DX12 12_1?

Un saludo y gracias.


12_0 y 12_1 son niveles de características de DX12, se supone que las Maxwell(960) soportan mas características de DX12, pero luego en los benchmarks que hemos visto, las AMD GCN 1.1 y 1.2(380) que "solo" soportan DX12 12_0 rinden mas. La razón es el cómputo asíncrono, las GCN tienen soporte hardware de esta característica mientras que las Maxwell manejan su equivalente mediante software, siendo mas ineficientes en ese sentido.

Y como apunte, la 380 ya es mas potente en DX11. No creo que en DX12 la tendencia se invierta.


Muchas gracias por la respuesta.

Esos test son dx11, no? Ahi gana la 380 por que tiene más fuerza bruta. Supongo que el computo asíncrono prevalece respecto a otras características que pudiera tener la nvidia?

Hay algun test dx12 para comparar? O aún nada?

Cuál de las dos pillariais de cara al futuro?

Un saludo.


Aquí el amigo @KailKatarn recopiló resultados sobre uno de los tests que se han hecho de DX12, un bench del juego Fable Legends que va a salir en poco tiempo. viewtopic.php?p=1739893750 Como se puede ver, la 285 y la 380(son el mismo silicio) ganan a la 960. Por lo que se lleva visto hasta ahora el cómputo asíncrono va a ser muy importante. Del otro bench, el de Ashes of the Singularity, también debe haber algo colgado en este hilo.

Yo iría a por la 380. Y dudo que me equivocase.
Desde nvidia se publica una serie de recomendaciones a los programadores sobre que usar Y QUE NO USAR para Direct3D12 en sus trajetas geforce.

https://developer.nvidia.com/dx12-dos-and-donts
/developer.nvidia.com escribió:
DX12 Do's And Don'ts



Introduction

The DX12 API places more responsibilities on the programmer than any former DirectX™ API. This starts with resource state barriers and continues with the use of fences to synchronize command queues. Likewise illegal API usage won’t be caught or corrected by the DX-runtime or the driver. In order to stay on top of things the developer needs to strongly leverage the debug runtime and pay close attention to any errors that get reported. Also make sure to be thoroughly familiar with the DX12 feature specifications.


[..]






kogoll escribió:[..]

Qué significa DX12 12_1?



De eso y mas se habla y explica en el hilo:

hilo_hilo-oficial-la-revolucion-de-las-apis-graficas-dx12-y-vulkan_2087013

Basicamente esta indicando que es la API grafica Direct3D12 [DX12] y que por HARDWARE el GPU soporta las caracteriticas graficas de Direct3D12 en su nivel 1. Los programadores tienen una; llamemos tabla; donde viene indicadas por NIVELES [features_level] las instrucciones de programacion que puede usar el GPU, cada instruccion se refiera a algun efecto visual o alguna instruccion de computo [crear tus propios filtros y efectos]. Con esto si, por decir algo y como ejemplo, en el LEVEL 1 de D3D12 existe una instruiccion 'GRANICE [size]' que crea un efecto de granizo realista, cuando el juego detecte que el GPU puede usar esta instruccion se la enviara, con lo que tendras un efecto visual mas realista que el que obtendrias en otra GPU que no puede emplear esta instruccion.

TRASTARO escribió:Que por cierto, hasta la nomenclatura usada por microsoft tiene concordancia.

el punto "." seria empleado solamente en la VERSION de la API D3D
el guion bajo "_" seria empleado solamente para indicar el FEATURE_LEVEL

De esta manera cuando leamos '11.1' entenderemos inmediatamente que estamos hablando de la API d3d11.1, mientras que si leemos '11_1' se refiere a que se pueden usar las funciones graficas de 'd3d11' en su nivel '1', vamos que esto ultimo tiene mas interes para el programador de juegos.



TRASTARO escribió:
Imagen
[..]


Ahora, tambien creo que estas confundiendo la FEATURE LEVEL con la version de la API. Tenemos entonces que GCN 1.0, efectivamente soportara muchas de las funciones de la API D3D12 en el manejo del procesador y los hilos y su organizacion con el GPU, pero a niveles graficos esta restringida a los efectos visuales de D3D11.1 por su diseño de arquitectura que tiene. Vamos, la feature_level la podemos considerar como una medida de retrocompatibilidad de la nueva API D3D con GPUs fabricados antes de la creacion de dicha nueva API D3D.

Por eso en la tabla aparece marcada como SI en "SOPORTE D3D12", y con 11_1 en "NIVEL FEATURES"


https://msdn.microsoft.com/en-us/librar ... 85%29.aspx
microsoft escribió:Direct3D feature levels

To handle the diversity of video cards in new and existing machines, Microsoft Direct3D 11]introduces the concept of feature levels. This topic discusses Direct3D feature levels.

Each video card implements a certain level of Microsoft DirectX (DX) functionality depending on the graphics processing units (GPUs) installed. In prior versions of Microsoft Direct3D, you could find out the version of Direct3D the video card implemented, and then program your application accordingly.

With Direct3D 11, a new paradigm is introduced called feature levels. A feature level is a well defined set of GPU functionality. For instance, the 9_1 feature level implements the functionality that was implemented in Microsoft Direct3D 9, which exposes the capabilities of shader models ps_2_x and vs_2_x, while the 11_0 feature level implements the functionality that was implemented in Direct3D 11.

Now when you create a device, you can attempt to create a device for the feature level that you want to request. If the device creation works, that feature level exists, if not, the hardware does not support that feature level. You can either try to recreate a device at a lower feature level or you can choose to exit the application. For more info about creating a device, see the D3D11CreateDevice function.


Muchas gracias a los dos por las respuestas.

Me interesa eso, que aproveche mejor las características de DX12 en un futuro, iré a por la R9 380.

Un saludo y gracias.
ya que sabemos mas de directx12 , que recomiendan una R9 fury x o fury o una gtx 980 ti
nuha2009 escribió:ya que sabemos mas de directx12 , que recomiendan una R9 fury x o fury o una gtx 980 ti


no sabemos mas
nuha2009 escribió:ya que sabemos mas de directx12 , que recomiendan una R9 fury x o fury o una gtx 980 ti


Entre esas dos aun hay muchas dudas. Hay benchs que dicen que la Fury X, otros que dicen que la 980ti, y la 980ti es mas potente en DX11. No sabría que decir.
Cualquiera de las dos es buena compra, pero si los juegos van a la tendencia de mayotr paralelismo con Computo Asincrono, lo mejor seria una Radeon.
Cough cough (tos):


Imagen



Ahora a esperar las reacciones de algunos ... Jejeje.
¿Y ya tira en DX12 ese juego supongo no? Por eso los resultados.

Dan ganas de pillarse una 290X. [facepalm]
Rivroner escribió:¿Y ya tira en DX12 ese juego supongo no? Por eso los resultados.

Dan ganas de pillarse una 290X. [facepalm]




Es DX11. Y anda que la moda de recomendar la gtx960 por encima de la amd 380 en el foro telita marinera.
Entonces habrá que ver que configuración tiene ese benchmark, no es normal que en DX11 gane o empate una 290X a una 980 a 1080P.
Rivroner escribió:Entonces habrá que ver que configuración tiene ese benchmark, no es normal que en DX11 gane o empate una 290X a una 980 a 1080P.



Ese benchmark es de guru3d y no hay nadie más realista en temas de gráficas que ellos lo que pasa es que la gente se crea mitos y ellos mismos se caen. En dx11 una 290x bien pulida en driver y bien utilizada en software es capaz de dar el do de pecho no solo en dx12.

El hardware son matematicas y resolución de cálculo y si tienes una potencia en dx12 puedes sacarla en dx11 si haces bien las cosas y el frostbite (motor del juego) siempre ha sido muy rendidor en amds, vamos que hacen las cosas bien.

Un saludo!


Link review: http://www.guru3d.com/articles_pages/st ... rks,1.html
KailKatarn escribió:
Rivroner escribió:¿Y ya tira en DX12 ese juego supongo no? Por eso los resultados.

Dan ganas de pillarse una 290X. [facepalm]




Es DX11. Y anda que la moda de recomendar la gtx960 por encima de la amd 380 en el foro telita marinera.


Cuando se ha recomendado es por temas de consumo normalmente, y hasta ahora han tenido un rendimiento similar, depende del juego ganaba una u otra, por ejemplo frosbite siempre ha sido más pro AMD, por lo que no es una sorpresa que en Star Wars rinda más, en otro juego lo mismo es la inversa.

De todas formas hay que adaptarse a las necesidades, por ejemplo en otro foro esta tarde un usuario pedía una gráfica por 200€ para una fuente Nox Urano de 370W en línea de 12v con un solo conector pci-e de 6 pines, por lo que lo idóneo es una 950 o 960 de un conector antes que una 380 de dos conectores y mayor consumo con una fuente algo apurada.
KailKatarn escribió:Cough cough (tos):


Imagen



Ahora a esperar las reacciones de algunos ... Jejeje.


Buenas noticias para los poseedores de una gráfica AMD.

Aún así y como comentan más atrás, el frostbyte es un motor que siempre se ha llevado mejor con las AMD, por ser uno de los juegos patrocinados. (Al igual que NVIDIA patrocina el MGS, TW3...)

Pero como esto es un foro y tenemos que discutir, señalar que en esa tabla no se hacen pruebas con OC, cuando la 980TI por ejemplo, tiene un margen enorme.
Dennggar escribió:Buenas noticias para los poseedores de una gráfica AMD.

Aún así y como comentan más atrás, el frostbyte es un motor que siempre se ha llevado mejor con las AMD, por ser uno de los juegos patrocinados. (Al igual que NVIDIA patrocina el MGS, TW3...)

Pero como esto es un foro y tenemos que discutir, señalar que en esa tabla no se hacen pruebas con OC, cuando la 980TI por ejemplo, tiene un margen enorme.



Imagen



Que aproveche las AMD como Dios manda no significa que no aprovechara las NVIDIA hasta la última gota viendo como ganaban en las generaciones en las que salió el juego por mucho patrocinio de AMD que hubiera/hubiese. Hay que entender que lo que ha pasado con las gráficas de AMD ha sido provocado por el mundo del gaming en pc:

1. Desarrollo basado en port de mierda

2. Mucho nvidia the way it's meant to be played donde nvidia gastaba un pastón en patrocinios + en pulir el driver para que hiciese lo que no hacían ni los programadores de los juegos.


Ya está, eso es todo y eso con DX12 se acabó porque el driver ya no puede hacer milagros en el close to metal y todo recae en los programadores. Esos mismos programadores que cuando hacen las cosas bien son capaces de sacar todo lo que las gráficas AMD no han sacado por temas de ports de mierda y no tener la ingeniería ni la pasta de nvidia para rehacer los juegos vía driver.

Un saludo.
No solo aprovecha las AMD, parece que rinde algo más en Kepler que en Maxwell no ? Ya podrían haber metido una 780 o una 770 en el bench [toctoc]
KailKatarn escribió:
Imagen

Que aproveche las AMD como Dios manda no significa que no aprovechara las NVIDIA hasta la última gota viendo como ganaban en las generaciones en las que salió el juego por mucho patrocinio de AMD que hubiera/hubiese. Hay que entender que lo que ha pasado con las gráficas de AMD ha sido provocado por el mundo del gaming en pc:

1. Desarrollo basado en port de mierda

2. Mucho nvidia the way it's meant to be played donde nvidia gastaba un pastón en patrocinios + en pulir el driver para que hiciese lo que no hacían ni los programadores de los juegos.


Ya está, eso es todo y eso con DX12 se acabó porque el driver ya no puede hacer milagros en el close to metal y todo recae en los programadores. Esos mismos programadores que cuando hacen las cosas bien son capaces de sacar todo lo que las gráficas AMD no han sacado por temas de ports de mierda y no tener la ingeniería ni la pasta de nvidia para rehacer los juegos vía driver.

Un saludo.


Lo "curioso" de este caso es que las pruebas no se han realizado bajo DX12, sino en DX11.

Como siempre digo, me alegro por AMD y porque haya una competencia entre ambas, si bien espero que Nvidia saque nuevos drivers que nos acerque a los 60 fps a 4K. (Sino se reduce algún efecto gráfico y problema resuelto)
Dennggar escribió:Lo "curioso" de este caso es que las pruebas no se han realizado bajo DX12, sino en DX11.

Como siempre digo, me alegro por AMD y porque haya una competencia entre ambas, si bien espero que Nvidia saque nuevos drivers que nos acerque a los 60 fps a 4K. (Sino se reduce algún efecto gráfico y problema resuelto)



No tiene curiosidad ninguna, simplemente la beta del juego solo tiene DX11.
Cuando los juegos o los motores graficos estan medianamente bien hechos se nota un huevo, el musculo que tiene la 290 es muy bueno pese tener 2 años la grafica, ojala DX 12 no se quede solo en marketing...
Probotector escribió:Cuando los juegos o los motores graficos estan medianamente bien hechos se nota un huevo, el musculo que tiene la 290 es muy bueno pese tener 2 años la grafica, ojala DX 12 no se quede solo en marketing...



Probotector es que tú eres un tío abierto de mente que ha probado unas y otras y puedes tener un juicio objetivo de las cosas pero es que hasta hace 2 días el foro era un caldo de cultivo de fanboys absolutos en una dirección en concreto que se podía alucinar.

De hecho desde este verano no, el anterior, cuando salieron las GTX970 que no han demostrado mucho más que una 780Ti (vamos, una buena refritanga) y con el problema del 3'5+0'5 y aquí te llamaban absolutamente de todo como se te ocurriese mencionar una 290 o una 290X.

A día de hoy cada día los sustos continúan de las pruebas que van saliendo y aun así aún queda algún caradura defendiendo a capa y espadas mentiras sin parar y habiéndose recomendado GTX970 en este foro a tocomocho. Venías a preguntar por una gráfica para ofimatica y ya te colaban una o dos GTX970 para trabajar en word porque eran muy frescas y consumían muy poco (viéndose que lo del consumo ha sido otra trola brutal lanzada y comida por el personal cual abeja obedece a la reina).

Pues nada, sigamos disfrutando porque me parece a mi que el panorama va a dar para risas pero de las buenas buenas.


Un saludo!
383 respuestas
14, 5, 6, 7, 8