DirectX 12 son malas noticias para Nvidia

14, 5, 6, 7, 8
KailKatarn escribió:
Dennggar escribió:Lo "curioso" de este caso es que las pruebas no se han realizado bajo DX12, sino en DX11.

Como siempre digo, me alegro por AMD y porque haya una competencia entre ambas, si bien espero que Nvidia saque nuevos drivers que nos acerque a los 60 fps a 4K. (Sino se reduce algún efecto gráfico y problema resuelto)



No tiene curiosidad ninguna, simplemente la beta del juego solo tiene DX11.


Creo que no lo has entendido...

Normalmente en DX11, las gráficas de Nvidia han rendido mejor y tu hacías referencia a que en DX12 "el driver ya no puede hacer milagros".

Nada mas, no busco desacreditar la review ni mucho menos.
Dennggar escribió:Creo que no lo has entendido...

Normalmente en DX11, las gráficas de Nvidia han rendido mejor y tu hacías referencia a que en DX12 "el driver ya no puede hacer milagros".

Nada mas, no busco desacreditar la review ni mucho menos.



Sí, si te he entendido, quizás yo no me haya explicado bien, pero bueno, sé perfectamente que eres un tío neutral con el que se puede hablar tranquilamente.

Como he comentado antes el problema de los DX11 y las Nvidia rindiendo mejor es porque había una ingeniería detrás del driver que podías alucinar, vamos, que practicamente te estaban rehaciendo el juego para sus gráficas porque hasta hacían forks de las llamadas a DX11 para traducirlas a sus shaders, vamos, un trabajo de la hostia por parte de Nvidia.

Eso significa que las Nvidia rendían más en DX11? no, y las AMD no sacan magia en DX12 simplemente que como el driver ya practicamente cuenta para nada pues sacan su magia antes pero si algún juego está bien hecho en DX11 y el driver está como Dios manda para el mismo pues puedes ver la misma magia que en DX12 que no es otra magia que aprovechar la tarjeta.

Microsoft con DX12 ha dado una ostia encima de la mesa y ha dicho "hasta aquí". A partir de ahora quien quiera sacar un buen juego en PC tendrá que tirar de Low-Level y hacer rendir las cosas como Dios manda y no tener un ejercito detrás luego reprogramando el juego a nivel de driver imposibilitando la competencia y convirtiendo al PC en un lastre para juegos necesitando mucha potencia para mover ports de mierda.

Ya era hora. Un saludo!


PD: El hardware son matemáticas y los GFlops de una AMD 290X desde siempre han sido una locura. Quien no ha querido entender que las matemáticas son exactas y que sólo las podía frenar el software de mierda que recibe y recibía el PC. Todo lo demás? fanatismos de fanboys que te vendía que las matemáticas no importa, que lo que importa es que tu PC tenga un logo de Intel y otro de Nvidia.
@KailKatarn Mucho criticas a los fanboys de nvidia pero telita contigo y AMD.

Yo lo que veo ahora es que donde antes Nvidia con gráficas equilibradas y un muy buen trabajo en la parte de drivers conseguía llevarse el gato al agua. En cambio, la estrategia de AMD era sacar una gráficas brutales en potencia y en consumo dejando bastante de lado la parte de los drivers. Y al final rendían igual o peor que las nvidia.

Lo que viene ahora es que AMD estuvo trabajando en su programación low-level y ahora eso se usa con dx12... pues entonces ese rendimiento bruto que tienen se nota mucho.
sdsoldi escribió:@KailKatarn Mucho criticas a los fanboys de nvidia pero telita contigo y AMD.

Yo lo que veo ahora es que donde antes Nvidia con gráficas equilibradas y un muy buen trabajo en la parte de drivers conseguía llevarse el gato al agua. En cambio, la estrategia de AMD era sacar una gráficas brutales en potencia y en consumo dejando bastante de lado la parte de los drivers. Y al final rendían igual o peor que las nvidia.

Lo que viene ahora es que AMD estuvo trabajando en su programación low-level y ahora eso se usa con dx12... pues entonces ese rendimiento bruto que tienen se nota mucho.



Claro, yo soy de AMD, es lo típico que se suelta cuando no gusta lo que se lee o ve. Ahora dime, si soy tanto de AMD por qué todos mis micros son Intel? a ver si te vas a dar cuenta de que mis gráficas lo son porque me han salido muy bien de precio.

Pero si, todos mis micros intel pero soy un defensor de AMD que no veas. A mi como si cierra mañana y nvidia con ella y nacen otras 10, pero tu mismo, aunque suele ocurrir que a uno le tilden de fanboy o comprado porque otros se creen que somos como ellos.

Un saludo.


PD: El Battlefront es DX11, nada de DX12.
Sois talibanes jajaja

No creo que una empresa como nvidia se quede de brazos cruzados. Lo que tienen que hacer es sacar otra x70 por 300 euros pero sin taras , a ver si asi bajan de la parra las furys y tal.
andapinchao escribió:Sois talibanes jajaja

No creo que una empresa como nvidia se quede de brazos cruzados. Lo que tienen que hacer es sacar otra x70 por 300 euros pero sin taras , a ver si asi bajan de la parra las furys y tal.



De momento se quedan sin furys de todas las que sacan así que me temo que tardarán en bajar y mira que yo no tocaría una ni con un palo en su modelo de referencia que es el que se vende hasta ahora. La verdad, me sorprende que se vendan tanto con esa disipación.
Estan las fürys sin movidas de Juguetes, esa bestia tiene que despertar algún día sino no veas y desbloquearlas para oc.

A lo mejor estan preparandose para directx 12 , soy un iluso jajjaa
andapinchao escribió:Sois talibanes jajaja

No creo que una empresa como nvidia se quede de brazos cruzados. Lo que tienen que hacer es sacar otra x70 por 300 euros pero sin taras , a ver si asi bajan de la parra las furys y tal.


A ver si es verdad y empieza a haber competencia real, y sobre todo, leal. Nvidia ha estado muy feliz en DX11, ahora con DX12 las matemáticas no fallan como bien dice Kail.
A mi lo que me gustaría de verdad es que con el tema de no necesitar un ejercito reprogramando los shaders a nivel de driver quizás, sólo quizás, se atreva a competir otras compañías porque ya sacando un buen hardware valdría. La verdad, me gustaría mucho ver la vuelta de powerVR o alguna otra de móvil o la propia samsung o coño, quien sea, pero que aparezca competencia.

2-3 actores más estaría de lujo a día de hoy.
KailKatarn escribió:A mi lo que me gustaría de verdad es que con el tema de no necesitar un ejercito reprogramando los shaders a nivel de driver quizás, sólo quizás, se atreva a competir otras compañías porque ya sacando un buen hardware valdría. La verdad, me gustaría mucho ver la vuelta de powerVR o alguna otra de móvil o la propia samsung o coño, quien sea, pero que aparezca competencia.

2-3 actores más estaría de lujo a día de hoy.


Con que se sume otra compañía al carro de las gráficas lo íbamos a notar en los precios cosa fina.
pupegbl escribió:Con que se sume otra compañía al carro de las gráficas lo íbamos a notar en los precios cosa fina.



Es que antiguamente todavía había algo de competencia, pero el mundo del PC, que siempre se ha caracterizado por los clónicos y hacer competir marcas al final ha acabado con una sola posibilidad de micros en 2015 (seamos sinceros, a día de hoy AMD en micros está muerta) y con dos posibilidades en gráfica, vamos, acojonante. En vez de ir a más competencia y más agresiva han convertido los usuarios con su pasta (porque esto es culpa de los usuarios) en un absoluto monopolio de 2 manos y con otra chupando lo que puede.

Y esto era el libre mercado y la libre competencia? vamos, no me jodas. Hace tiempo que si el tribunal de competencia de USA funcionara habrían hecho a intel partirse en 2 o en 3 pero al final van a acabar vendiendo hasta los micros de los juguetes de los niños y aquí no pasa nada de nada.

Esto ni es capitalismo ni es nada. Esto es intervencionismo salvaje y con la aprobación de los propios usuarios favoreciéndolos hasta morir. Si la siguiente generación de gráficas en mainstream salen a 800-1000 euros que luego no se asusten (y hablamos de mainstream nada de top, que al paso que vamos se va a acabar viendo).

Da mucho asco la situación actual.
KailKatarn escribió:
pupegbl escribió:Con que se sume otra compañía al carro de las gráficas lo íbamos a notar en los precios cosa fina.



Es que antiguamente todavía había algo de competencia, pero el mundo del PC, que siempre se ha caracterizado por los clónicos y hacer competir marcas al final ha acabado con una sola posibilidad de micros en 2015 (seamos sinceros, a día de hoy AMD en micros está muerta) y con dos posibilidades en gráfica, vamos, acojonante. En vez de ir a más competencia y más agresiva han convertido los usuarios con su pasta (porque esto es culpa de los usuarios) en un absoluto monopolio de 2 manos y con otra chupando lo que puede.

Y esto era el libre mercado y la libre competencia? vamos, no me jodas. Hace tiempo que si el tribunal de competencia de USA funcionara habrían hecho a intel partirse en 2 o en 3 pero al final van a acabar vendiendo hasta los micros de los juguetes de los niños y aquí no pasa nada de nada.

Esto ni es capitalismo ni es nada. Esto es intervencionismo salvaje y con la aprobación de los propios usuarios favoreciéndolos hasta morir. Si la siguiente generación de gráficas en mainstream salen a 800-1000 euros que luego no se asusten (y hablamos de mainstream nada de top, que al paso que vamos se va a acabar viendo).

Da mucho asco la situación actual.


No puedo estar más de acuerdo. Me estoy acordando de cuando en micros estaban Intel, AMD y Cyrix, y en gráficas 3Dfx, ATI, Matrox, S3, nVidia...en fin...ya vemos cómo ha cambiado la cosa }:/
3dfx lo que molaban las voodoo :(
WiiBoy escribió:3dfx lo que molaban las voodoo :(


Jajaja en aquellos tiempos también había guerra jajaja.
Mi vieja tnt2 ultra [buuuaaaa]
Imagen

Hay un salto demasiado grande entre la 280x y la 970 (16 fps). Hace falta ahi una grafica para cubrir ese espacio...
pupegbl escribió:
KailKatarn escribió:A mi lo que me gustaría de verdad es que con el tema de no necesitar un ejercito reprogramando los shaders a nivel de driver quizás, sólo quizás, se atreva a competir otras compañías porque ya sacando un buen hardware valdría. La verdad, me gustaría mucho ver la vuelta de powerVR o alguna otra de móvil o la propia samsung o coño, quien sea, pero que aparezca competencia.

2-3 actores más estaría de lujo a día de hoy.


Con que se sume otra compañía al carro de las gráficas lo íbamos a notar en los precios cosa fina.


Quien sabe si Intel, con la experiencia adquirida en el desarrollo de gráficas integradas, se anime a dar el salto. Por falta de presupuesto no será.

Por otro lado, estáis enterrando demasiado rápido a Nvidia y aun no ha salido a la venta ningún titulo AAA con soporte para DX12. Me extraña mucho que se vayan a quedar con los brazos cruzados.

Seguimos sin noticias de parches DX12 para TW3 ? Por el Batman ni pregunto...
kakarot88 escribió:Imagen

Hay un salto demasiado grande entre la 280x y la 970 (16 fps). Hace falta ahi una grafica para cubrir ese espacio...


En medio estaría la 780, que no sé por qué la omiten en la mayoría de benchmarks cuando precisamente es la que ocupa ese escalón que comentas. Supongo que porque está descatalogada...
Dennggar escribió:
Quien sabe si Intel, con la experiencia adquirida en el desarrollo de gráficas integradas, se anime a dar el salto. Por falta de presupuesto no será.

Por otro lado, estáis enterrando demasiado rápido a Nvidia y aun no ha salido a la venta ningún titulo AAA con soporte para DX12. Me extraña mucho que se vayan a quedar con los brazos cruzados.

Seguimos sin noticias de parches DX12 para TW3 ? Por el Batman ni pregunto...


Intel puede y bastante, lo que pasa es que no se come mucho la cabeza en estos lares, pero mira como los Broadwell con "128 MB" de L4 se meriendan al cualquier APU del mercado.

Eso si el precio es el doble o más y los drivers no son para tirar cohetes.
@KailKatarn

Toda la razón compañero.

Las cosas se están poniendo chungas en el PC.

Un Saludo.
Dennggar escribió:Quien sabe si Intel, con la experiencia adquirida en el desarrollo de gráficas integradas, se anime a dar el salto. Por falta de presupuesto no será.

Por otro lado, estáis enterrando demasiado rápido a Nvidia y aun no ha salido a la venta ningún titulo AAA con soporte para DX12. Me extraña mucho que se vayan a quedar con los brazos cruzados.

Seguimos sin noticias de parches DX12 para TW3 ? Por el Batman ni pregunto...



Nadie da por muerta a Nvidia, Nvidia está más viva que nunca y con una capitalización bursatil que se sale de las órbitas. Les sale la pasta por las orejas. Ese "muerto" está más vivo que nunca, vamos, que está en casi completo monopolio por no decir sin casi.
Dejo el enlace de la review del Battlefront por si alguien quiere ver el rendimiento a las distintas resoluciones:

Imagen

Otro dato interesante de la review:

Imagen

http://www.guru3d.com/articles_pages/st ... rks,5.html

Una pena que no haya bench en directx12.


Un saludo
WiiBoy escribió:3dfx lo que molaban las voodoo :(


Ya te digo, creo que nvidia los absorbio cuando estaban en las últimas .

El hueco que hay hasta la 970 es para una 380x y con el tiempo tambien la superara jejjejje

Que siverwenzas esta gente de nvidia cobrando 200 euros por esa 960 y ya. No. Alcanza los 60Fps. Lo gracioso es que luego lees a la gente y dice ... uuuu todo últra que tarjeton. Asi esta la Peña que se creen que es mejor que una 290. 34Fps ... nadaaaa eso es un poco de oc que es muy fresca y consume poco....
WiiBoy escribió:3dfx lo que molaban las voodoo :(


Que conste que yo aun tengo una 5 5500 pci que me ha salvado de algún apuro y la tia va como nueva pese a los años que tiene
A mí me mola que haya movimiento y competencia la verdad. El tema de ser de unos u otros no tienen sentido. En cada momento y presupuesto se compra lo que mejor se ajuste a tus necesidades y listo.

Con el trabajo que ya había hecho AMD con Mantle, me esperaba que pudiesen tener algo de ventaja con la llegada de DX12.
WiiBoy escribió:3dfx lo que molaban las voodoo :(


Y su espiritu aun esta [casi desvaneciendose] en las actuales geforce desde la serie FX 5000, que fueron las primeras geforce con la 'magia' de las voodoo, aunque lastimosamente tambien heredaron los gritos angustiantes de las banshee con su turbina para enfriar

Dennggar escribió:
Quien sabe si Intel, con la experiencia adquirida en el desarrollo de gráficas integradas, se anime a dar el salto. Por falta de presupuesto no será.

.


Pues ya estuvo en le mercado de videocard y no les fue nada bien, con lo que dudo intel tenga ganas de intentar entrar a ese mercado una vez mas.

Imagen
http://www.vgamuseum.info/index.php/com ... -intel-740





.
@TRASTATO si no me equivoco, también lo intentaron con el proyecto Larrabee pero acabaron descartandolo (no llegó a salir a la venta), una lastima.
Pues ese Larabee vendria siendo mas un AMD APU o un Tegra, que es un chip expresamente desarrollado como un sistema HSA o de Computo Heterogeneo, no se si aparecio el proyecto cuando intel pudo contratar gente que venia trabajando en la extinta ATI y nvidia, pero ponen que el mayor inconveniente era precisamente el poco rendimietno del iGP para el copmputo heterogeneo y en general para los graficos.
vns escribió:A mí me mola que haya movimiento y competencia la verdad. El tema de ser de unos u otros no tienen sentido. En cada momento y presupuesto se compra lo que mejor se ajuste a tus necesidades y listo.

Con el trabajo que ya había hecho AMD con Mantle, me esperaba que pudiesen tener algo de ventaja con la llegada de DX12.



Si te fijas este bench es en directx11 y las amd han superado a sus rivales directos, como ocurre siempre, con el paso del tiempo.

En directx 12, el aumento de rendimiento por parte de amd, es bastante más notorio si nos remitimos a las pruebas que tenemos a día de hoy.


Un saludo
el battlefront se supone que tendria dx12 no? yo a full mi equipo sin oc lo muevo con todo en ultra a 5760x1080 entre 45 /34 fps pero sin ningun tipo de lagueo
Una pregunta , ya he visto que las gpus de amd son las mas beneficiadas como se anunciaba , y que en cpu el ipc sigue siendo el que corta el bacalao , aun que dx12 es un alivio para todas ,

pero y el ¿crossfire y SLI? por que se hablaron maravillas sobre el tema , como usar varias tarjetas de distintas series , incluso de distintas marcas (entiendo que sin necesidad de drivers específicos ya , ni para amd ni nvidia) , memorias unificadas entre tarjetas , etc etc ,
pero no he vuelto a ver nada mas sobre el asunto , hay alguna comparativa o noticia veraz sobre estos temas , o va a seguir siendo poco rentables las soluciones multi-Gpu , respecto a la renovación mas frecuente de una mono Gpu.


de momento tenemos :

tema de las gpu de amd : parece que es cierto y la mejora de rendimiento es similar a la de usar Mantle.

tema de las cpu : bastante humo , se siguen sin aprovechar mayor numero de núcleos. y sigue siendo el IPC el que manda , salvo que salgan pruebas nuevas ,

tema de soluciones Crossfire / Sli : no se sabe mucho
Zinclair escribió:Una pregunta , ya he visto que las gpus de amd son las mas beneficiadas como se anunciaba , y que en cpu el ipc sigue siendo el que corta el bacalao , aun que dx12 es un alivio para todas ,

....

tema de las gpu de amd : parece que es cierto y la mejora de rendimiento es similar a la de usar Mantle.

tema de las cpu : bastante humo , se siguen sin aprovechar mayor numero de núcleos. y sigue siendo el IPC el que manda , salvo que salgan pruebas nuevas ,

tema de soluciones Crossfire / Sli : no se sabe mucho



No no... no olvides un detalle para NADA irrelevante:

Todas las pruebas que están sirviendo para alimentar el mito de que la mejora es mayor en AMD, son pruebas... promocionadas por AMD:

Ashes of Singularity-> Promocionado directamente por AMD, de los mismos que iban a crear un juego para Mantle basado en el test Star Swarm creado ad hoc para dicha API, y que no ha salido y parece la base de AoS, no hay mucho más que decir de su falta total de imparcialidad.

Fable-> Aunque en principio debería ser el juego más neutral (además está confirmado, va a ser UN JUEGO DX12 de verdad, no como lo anterior que ya veremos en qué acaba), no se escapa que microsoft tiene interés en apoyar a AMD como ya viene siendo costumbre desde los tiempos de DX9 (donde, por primera vez y de forma inédita en este API, una subversión superior de ésta como DX9b era INFERIOR técnicamente a la anterior, la DX9a, para adaptarse al hard de AMD y no al revés).

Es la suministradora de su hard para consolas, así como alguien más dependiente de microsoft (nvidia siempre ha sido más de apoyar a OpenGL y otras APIs alternativas, otros sistemas operativos, etc, no es algo de ahora ni AMD está a la altura en el soporte GENERAL de OpenGL ni menos de otras plataformas que no sean windows). De hecho no hay que olvidar que nvidia era usado en la consola enemiga de la de microsoft.

El tema de los async shaders, una NO característica gráfica incluída a última hora y como opcional en DX12 (no se sabía en absoluto nada de ésta como una característica de DX12 cuando ya estaban definidos los distintos estándares de compatibilidad gráfica de DX12, 11_x, 12_0 y 12_1). Se usa en este juego, así que sólo por eso ya no se puede considerar del todo imparcial.

Y por último, SW Battlefront, ignorar que EA pero sobre todo su estudio de desarrollo DICE tiene una relación con AMD fuerte, donde han habido pagos estratosféricos sin saber para qué exactamente (en concreto, me refiero a los 5-8 millones de dólares pagados por AMD a DICE respecto a "algo" que tiene que ver con BF4 pero que nunca se explicó el qué, ¿el portado a Mantle quizás?), es ignorar demasiado. Este caso es el segundo menos neutral, detrás del tema de Oxide Games con AoS.

AoS-> Para nada neutral, a las claras.
SW:Battlefront-> De dudosa neutralidad viendo la relación entre DICE y AMD con BF_BC2, BF3 y BF4, que además iba "in crescendo" con el tiempo.
Fable-> Neutralidad por lo menos cuestionable, al apurarse a mal incluir una característica de AMD en el juego y el API a las prisas. Sólo porque usa el motor de UE4, se puede aceptar como el caso menos imparcial (porque otra cosa no tendrá, pero UE es el motor de juegos principal del mercado, y el más importante e interesado en mantener una neutralidad, por tanto, por mucho que se moleste en implementar e integrar tecnologías de ambas empresas de gpus, exclusivas, para poder ofrecer el motor más robusto posible al mercado).

Curiosamente, este rango de "neutralidades" no tan claras, coincide bastante con el rendimiento observado, Fable es el juego con un rendimiento más similar a lo visto en otros juegos previos en DX11 o incluso betas muy tempranas de juegos/test DX12. El caso de AoS simple y llanamente es una burla como ya lo fue Star Swarm, y me gustaría saber qué pasará cuando Battlefront salga al mercado finalmente (la historia de la "ventaja" en los juegos de DICE de AMD en sus estados beta no es de ahora, curiosamente suele estar anulada en el lanzamiento final, la ventaja del trato directo DICE-AMD se anula mucho en las fechas previas al lanzamiento de un juego, donde la comunicación parece bastante fluida también con nvidia, algo de mérito por parte de DICE que "no se vende" al completo por el trato preferente con AMD).
Ya........
Y lo del nvidia "the way it's meant to be played" que se ve en muchos juegos es neutralidad a tope....
No se me parece un poco demagógico decir que DICE no es objetiva, cuando no se ve una caída de frames tan brutal en Nvidia respecto a AMD como si se ve en otros casos (es que después AMD es satán)....
Sin olvidar ciertos post que se han publicado en los que nvidia recomienda a los programadores que no se usen los shaders asíncronos de Dx12 (bieeeeeeeeeeeeeeeeeeeeeeeeeeeen).............
Claaaaaaaaaaaaaaro........
¿sabes lo que veo?. Uso de gameworks a saco para que no se note nada que parece que a Nvidia se le avecina otra maravillosa época como la de la serie 5000.......
Uy si que le fue mal con las FX 5000 a nvidia.

Y ya que estamos hablando de la 3dfx [las gf fx 5000 primera integracion del personal de 3dfx con el personal de nvidia], aqui una tarjeta que hara las delicias de @WiiBoy y cualquier otro fan de esta empresa.

Imagen
Bufff,

Esa imagen me ha tocado la patata... XDXD todavía me acuerdo de mi vodoo 3 2000 la de buenos momentos que me dio............
Todavía me acuerdo del Glide............... Ayyyy que buenos tiempos XDXD
ya ves por 30 000 estabas en la cresta de la ola y ahora no te da ni para una 960 [carcajad]

No es lo mismo el dinero de antes.... ahora se gana menos [carcajad]
bua que wapo ver tanto chipset junto xD
Lo que hay que hacer con Nvidia es algo tan fácil como no cómprale. Yo falle en al serie 900 pero se acabo, sus practicas son lo más rastrero y asqueroso que hay en el sector.

¿Neutralidad? Me río de Nvidia, yo llego más de 1500h en Battlefield 4 con una gráfica Nvidia y rinde bien, no trampea nada, algún fallo de drivers como es normal (por que no es el dios del Middle como quieren hacer ver algunos) y ya esta.

¿Physx en AMD? Mi nabo, ¿Tressfx en Nvidia? Funciona!!! sin hacer la guarrada que hace Nvidia con sus tecnologías (sin ir más lejos no deja que funcionen bien con una secundaria de su marca... puta verguenza de empresa), ¿Mantle en Nvidia?, ¿ha ido esta a solicitar la licencia? No, así de simple. Microsoft compra Havock y empiezan los lloros ¿digo que si no será mejor que esto este en manos de el mayor desarrollador de software, en juegos indiscutible, que en manos de una empresa de hard? Pues parece que no, ya que Nvidia ve peligrar, según algunos, su physx que lo que aporta son 4 chispas y bajones de fps.

¿Qué Nvidia apoya que de OpenGL? Seguro, por eso en linux se juega con su Physx. Poco que añadir a lo que le dijo ya en su dia Torval...


Lo de lo shader asíncronos no creo que llegue a nada, pero esto no quita que Nvidia es la peor empresa tecnológica que ha conocido el sector de hardware dedicado a 3D menuda panda...

Por favor no me confundáis con los cuatro gayer gafapastas enamorados de los teclados mecánicos y bicicletas fixie de mierdavida y similares, yo no amo AMD... solo digo lo que veo, si Nvidia cambia seguiré con ellos sin problemas.
Mi Voodoo 5 5500 PCI hace unos días. [carcajad] [carcajad] [carcajad] [carcajad] [carcajad]

Imagen


Hasta que no haya un mínimo de 3 ó 4 juegos DX_12 nada de esos análisis y demos vale para nada.
WiiBoy escribió:bua que wapo ver tanto chipset junto xD


¿Chipset?...

Monstruosa, simplemente monstruosa, rara la tienda que tenia esta bestia de tarjeta, y mas raro el que conocoieras a alguien que tuviera una... yo me quede con las ganas. Hace un año y medio, una tienda de computo saco muchas tarjetas voodoo que tenian por 'ahi tirados en el almacen' rematandolas en USD$30 a USD$60 dolares, voodoos 2, voodoo3, algunas voodoo 4 y 5. Un amigo se compro solo las cajas y empaques de las varias que tenian tambien en venta y tapizo una parte de su pared.

Ya tanto tiempo que usamos el termino GPU o procesador grafico, que ya me parece aninatural el llamarles 'aceleradores de video y 3D' a esos chips.



niñodepapa escribió:[..]
Lo de lo shader asíncronos no creo que llegue a nada, pero esto no quita que Nvidia es la peor empresa tecnológica que ha conocido el sector de hardware dedicado a 3D menuda panda...
[..]


Quien sabe, Oculus ya esta anunciando productos con tarjetas radeon, ya que estas gracias a los shaders asincronos [mas el scheduller por hardware] ya dijeron [tanto los de oculus como de otros dispositivos similares] que es la mejor solucion para baja latencia en cuanto a sistemas VR.

Tambien, aunque algo ajeno y lejano al mercado ludico, en sistemas de imagineria digital para hospitales tambien han pronunciado que trae beneficios, lo mismo que en temas de software de ingenieria. Cosas puntuales si quieres, pero si les parece importante.




.
Normal, no tenia ni pies ni cabeza que las GPU de NVIDIA tuvieran peor rendimiento en dx12 que en dx11. Al final la única diferencia sera que AMD se volverá competitiva, lo cual es bueno para todos.
Tampoco hay que olvidar que han mejorado ambas.
Dfx escribió:Tampoco hay que olvidar que han mejorado ambas.

^This. Ambas han mejorado con los nuevos drivers.
La única que mejora en dx12 es la Gtx 980 ti en preset medium (a ver quien juega con ese pepino en calidad media) por que en épic sin MSAA se queda como esta , la gtx 970 se queda prácticamente como esta tanto en medio como epic (pero en dx11 es un pepino),
las de amd se disparan en cualquiera de las preset en dx12 , en cualquier caso , habar que esperar mas resultados
para ver las mejoras reales.
niñodepapa escribió:Lo que hay que hacer con Nvidia es algo tan fácil como no cómprale. Yo falle en al serie 900 pero se acabo, sus practicas son lo más rastrero y asqueroso que hay en el sector.

¿Neutralidad? Me río de Nvidia, yo llego más de 1500h en Battlefield 4 con una gráfica Nvidia y rinde bien, no trampea nada, algún fallo de drivers como es normal (por que no es el dios del Middle como quieren hacer ver algunos) y ya esta.

¿Physx en AMD? Mi nabo, ¿Tressfx en Nvidia? Funciona!!! sin hacer la guarrada que hace Nvidia con sus tecnologías (sin ir más lejos no deja que funcionen bien con una secundaria de su marca... puta verguenza de empresa), ¿Mantle en Nvidia?, ¿ha ido esta a solicitar la licencia? No, así de simple. Microsoft compra Havock y empiezan los lloros ¿digo que si no será mejor que esto este en manos de el mayor desarrollador de software, en juegos indiscutible, que en manos de una empresa de hard? Pues parece que no, ya que Nvidia ve peligrar, según algunos, su physx que lo que aporta son 4 chispas y bajones de fps.

¿Qué Nvidia apoya que de OpenGL? Seguro, por eso en linux se juega con su Physx. Poco que añadir a lo que le dijo ya en su dia Torval...


Lo de lo shader asíncronos no creo que llegue a nada, pero esto no quita que Nvidia es la peor empresa tecnológica que ha conocido el sector de hardware dedicado a 3D menuda panda...

Por favor no me confundáis con los cuatro gayer gafapastas enamorados de los teclados mecánicos y bicicletas fixie de mierdavida y similares, yo no amo AMD... solo digo lo que veo, si Nvidia cambia seguiré con ellos sin problemas.


TressFX funciona hasta lo que se bajo OpenCL, solo es una capa de software como cualquier otro programa en OpenCL, por eso funciona en todas. Y lo del pelo ni es novedad, anda que ni años que Nvidia andaba con el tema pero lo descartaba por que consumía mucho... (llevan con ello desde 2008 por lo menos)

Intel fue a pedirle a AMD para implantar Mantle, le han salido telarañas esperando y al final han terminado en DX12 sin haber tenido Mantle. (tan abierto que era y dispuestos que estaban)

Muchas tecnologías de AMD han terminado desapareciendo en poco tiempo y sin mucho esmero en implantarse, AtiStream es una (con la que buscaban competir con Nvidia CUDA... les salvó el culo OpenCL como standard, o iban a acelerar en aplicaciones Adobe y otras profesionales las AMD menos que una patata), ¿Mantle? realmente cuentas los juegos con los dedos de una mano, tal cual abrió la veda cerró, Mantle 2.0 será lo ultimo que se verá casi con seguridad con DX12 y Vulkan en escena.

Y en linux empiezan a soltar código para en el futuro no tener ellos que hacer los drivers (les cuesta mantener los de Windows con tanta beta y han dejado tiradas un montón de tarjetas graficas no tan viejas en los drivers principales, sin contar con las 6xxx/7xxx inferiores a 7770 que no tendrán DX12 ni a medias ni a nada), Intel hace sus propios drivers y libres y Nvidia aunque no le viene en gana dar documentación sus drivers funcionan mas que bien y se esmeran bastante (puso los medios para aceleracion de video HD por hardware los primeros con VDPAU, hay CUDA, hay Physx, yo que se cuantas cosas mas, AMD... unos drivers que funcionan, tardíos y que no actualizan Xorg a veces en algunas distros famosas porque AMD no había dado soporte aún, y las demás sí meses antes, y no dejar a los usuarios de AMD Radeon sin 2D/3D o dependiendo solo de los libres)

Y otra gracia es las certificaciones Crossfire, cualquier mierda de placa del todo a cien es Crossfire por muy desigual sean los PCIe. (¿16x/4x?) Casi por tener 2 PCIe de tamaño normal ya es Crossfire...

La que mas o la que menos cojea de lo lindo por un lado u otro.
Zinclair escribió:La única que mejora en dx12 es la Gtx 980 ti en preset medium (a ver quien juega con ese pepino en calidad media) por que en épic sin MSAA se queda como esta , la gtx 970 se queda prácticamente como esta tanto en medio como epic (pero en dx11 es un pepino),
las de amd se disparan en cualquiera de las preset en dx12 , en cualquier caso , habar que esperar mas resultados
para ver las mejoras reales.


Al final la pequeña mejora le permite a Nvidia estas arriba en los benchmarks, en un titulo teóricamente favorable a AMD, que me imagino que era la intención.

Como bien dices y en este juego en concreto, las AMD se disparan bajo DX12, veremos como se desenvuelven en futuros triple A construidos desde cero con la nueva API de Microsoft en mente.

Lo que parece seguro es que se avecinan unos meses muy interesantes...
Quiero montar un pc y no seq gráfica montar si una 980, una 970 o alguna de AMD la 390x o la fury, sería para jugar en 1080, cada vez q voy leyendo, más grande se me hace la duda
Darumo escribió:TressFX funciona hasta lo que se bajo OpenCL, solo es una capa de software como cualquier otro programa en OpenCL, por eso funciona en todas. Y lo del pelo ni es novedad, anda que ni años que Nvidia andaba con el tema pero lo descartaba por que consumía mucho... (llevan con ello desde 2008 por lo menos)

¿y? La historia es más bien de licencias...

Intel fue a pedirle a AMD para implantar Mantle, le han salido telarañas esperando y al final han terminado en DX12 sin haber tenido Mantle. (tan abierto que era y dispuestos que estaban)

¿Enlace? Algo mas allá de Fudzilla, elchapuzas, chw, etc... hablo de algo oficial donde se diga que AMD se negó bien por parte de Intel o AMD.

Muchas tecnologías de AMD han terminado desapareciendo en poco tiempo y sin mucho esmero en implantarse, AtiStream es una (con la que buscaban competir con Nvidia CUDA... les salvó el culo OpenCL como standard, o iban a acelerar en aplicaciones Adobe y otras profesionales las AMD menos que una patata), ¿Mantle? realmente cuentas los juegos con los dedos de una mano, tal cual abrió la veda cerró, Mantle 2.0 será lo ultimo que se verá casi con seguridad con DX12 y Vulkan en escena.

Se abandonaron ya que es mejor la propuesta de OpenCL cosa a la que se podía haber unido esta mierda empresa.... pero ellos no, tienen su "estilo" como Freesync vs Gsync.

¿Qué esperas de Mantle? Para tener una sola compañía que lo implementa ya que esta involucrada directamente en su desarrollo no esta mal la cantidad de titulos AAA que lo llevan, ¿qué no es el futuro? Ya, claro que no, ni lo sera ninguna tecnología de Nvdia, y si no tiempo al tiempo. El gato al agua a estas alturas de la película se lo llevara el más perro más grande, en este caso Windows con su DX12.


Y en linux empiezan a soltar código para en el futuro no tener ellos que hacer los drivers (les cuesta mantener los de Windows con tanta beta y han dejado tiradas un montón de tarjetas graficas no tan viejas en los drivers principales, sin contar con las 6xxx/7xxx inferiores a 7770 que no tendrán DX12 ni a medias ni a nada), Intel hace sus propios drivers y libres y Nvidia aunque no le viene en gana dar documentación sus drivers funcionan mas que bien y se esmeran bastante (puso los medios para aceleracion de video HD por hardware los primeros con VDPAU, hay CUDA, hay Physx, yo que se cuantas cosas mas, AMD... unos drivers que funcionan, tardíos y que no actualizan Xorg a veces en algunas distros famosas porque AMD no había dado soporte aún, y las demás sí meses antes, y no dejar a los usuarios de AMD Radeon sin 2D/3D o dependiendo solo de los libres)

La ultima vez que toque aceleración 3D en linux con una vetusta ATI me fue sin problemas, no se si ahora no lo podrán dejar bonito los 4 nenes con conky o que pasara ya que estoy con NVIDIA y es curioso no soporte la totalidad de sus tecnologías bajo opengl. Además, ¿qué api usa PS4? No es directx corriendo en Windows, esta claro, y resulta que funciona sin problemas... quizas AMD no tenga el mejor de los soportes, pero Nvidia tampoco, se tendrán que mojar más allá de la mierda que esta haciendo Steam. Hay juegos, pero casi todos indis con motores multiplataforma, y los "dos o tres" títulos AAA que funcionan en linux habrá que dar gracias a MAC, ¿quién va hacer un juego AAA en una plataforma donde el usuario lo quiere todo gratis? A ver si espabila Steam y deja de mariconear con sus machine y se vera como y quien rinde más, menos, etc... ahora poco puede destacar Nvidia ahí.

Igual alguien quiere hacer un programa gratis que ande más que una patata, no se un transcodificador de video simple, por ejemplo, ya que se ve interés en linux y el código disponible (yo solo juego) http://developer.amd.com/tools-and-sdks ... g-app-sdk/

Herramientas parece que hay, interés no tanto....


Y otra gracia es las certificaciones Crossfire, cualquier mierda de placa del todo a cien es Crossfire por muy desigual sean los PCIe. (¿16x/4x?) Casi por tener 2 PCIe de tamaño normal ya es Crossfire...

Sobre las certificaciones no tengo idea, pero parece es fácil intuir lo que ocurre ya que veo placas con PCIe 8x/8x que soportan Crossfire y no SLI igual el problemas es lo que aquí comentan.

La que mas o la que menos cojea de lo lindo por un lado u otro.


Hay de todo, pero mucho peor unas que otras.
Zinclair escribió:La única que mejora en dx12 es la Gtx 980 ti en preset medium (a ver quien juega con ese pepino en calidad media) porque en épic sin MSAA se queda como esta , la gtx 970 se queda prácticamente como esta tanto en medio como epic (pero en dx11 es un pepino),
las de amd se disparan en cualquiera de las preset en dx12 , en cualquier caso , habar que esperar mas resultados
para ver las mejoras reales.


Pues ese es un punto importante, lo cual lleva a ver que algo le afecta la arquitectura entre la GTX 980/980Ti y la GTX 970, aparte de que la manipulacion y mejora esta preparada solo para un caso especifico.
383 respuestas
14, 5, 6, 7, 8