DirectX 12 permitirá combinar tarjetas AMD y Nvidia para que trabajen como una sola

1, 2, 3
¿Por que iba un usuario de nvidia a necesitar nada de una gráfica amd? Aunque el caso contrario puedo llegar a entenderlo.
nekuro escribió:¿Por que iba un usuario de nvidia a necesitar nada de una gráfica amd? Aunque el caso contrario puedo llegar a entenderlo.


Quizas por mantle? quizas por tress fx ? quizas por otras antialiasings mas efectivos?
Cada una tiene sus tecnologias por otro lado logicas para intentar diferenciarse y vender.
Respecto a la noticia , me parece muy buena iniciativa. Ahora falta ver si realmente se implementara bien o sera todo agua de borrajas. Me compre una ati esperando las nuevas de nvidia y que bajaran de precio y me podria ir de perlas, aunque desconfio porque si ya en sli o crossfire hay problemas con los juegos con este crossover no se lo que pasara.
Que tal os funcionan lo slis y crossfires a los que lo teneis?

salu2
Como han dicho al principio,. no recuerdo que usuario, mi torre sólo va a tenr una GPU y chimpún gori gori.
XD XD XD XD
Jimmyhoo escribió:
starswarm es una demo tecnica no un juego, esta hecha específicamente para utilizar una cantidad inmensa de drawcalls(una por cada nave, efecto, etc), dicho de otra forma como juego estaría mal hecho, ya que en un juego para PC se engloban lo elementos de manera que se hacen unas pocas drawcalls debido al overhead del driver, os, etc, de ahi que el framerate sea muy bajo, eso se hace asi para que el rendimiento este vinculado a la velocidad de drawcalls, de manera que ahi se nota la mejora en el tiempo de drawcalls que es uno de los puntos débiles de la PC

no debe ser tomada como métrica para la mejora en juegos


en cuanto a la noticia, todo queda en manos de desarrolladores, el problema cuando se encadenan es que todo pasa a depender del eslabón mas débil, en ese sentido esta bien que se quiera manejar partes diferentes de el frame en cada gpu, y suena muy bonito eso de sumar la vram como una sola, pero en la practica no seria asi ya que cosas como las texturas y demas buffers tienen que estar disponibles para la gpu que va a trabajar con ellos, si por ejemplo una textura no esta y esta en el otro bloque entonces se tiene que ir a leer en el otro bloque, si no esta bien planificado o no hay una manera de acceder rapido a esta memoria, entonces pueden surgir cuellos de botella que no estarian con un espejo de la memoria, veo mas factible usar el otro gpu para tareas no graficas como fisicas y demas o usar espejos




Yo creo que ahi podria haber un problema(aunque puedo estar equivocado y lo mismo no hay nada).

En el caso de que en un SLI o un Crosfire la memoria pueda ser sumada que pasaria si por ejemplo la grafica principal tuviera que hacer uso de la vram de la segunda y se tengan que comunicar a traves del Pcie, que pasaria con la enorme diferencia de ancho de banda de graficas como la 780ti o la 290X, que pasan holgadamente de los 300GB/s con el ancho de banda del PCie 3.0 16x 16x(esto contando que tienes una plataforma Intel X58 X79 o X99 con micros de 40 lanes pci-e, sino seria 3.0 8x 8x)
DaNi_0389 escribió:
Jimmyhoo escribió:
starswarm es una demo tecnica no un juego, esta hecha específicamente para utilizar una cantidad inmensa de drawcalls(una por cada nave, efecto, etc), dicho de otra forma como juego estaría mal hecho, ya que en un juego para PC se engloban lo elementos de manera que se hacen unas pocas drawcalls debido al overhead del driver, os, etc, de ahi que el framerate sea muy bajo, eso se hace asi para que el rendimiento este vinculado a la velocidad de drawcalls, de manera que ahi se nota la mejora en el tiempo de drawcalls que es uno de los puntos débiles de la PC

no debe ser tomada como métrica para la mejora en juegos


en cuanto a la noticia, todo queda en manos de desarrolladores, el problema cuando se encadenan es que todo pasa a depender del eslabón mas débil, en ese sentido esta bien que se quiera manejar partes diferentes de el frame en cada gpu, y suena muy bonito eso de sumar la vram como una sola, pero en la practica no seria asi ya que cosas como las texturas y demas buffers tienen que estar disponibles para la gpu que va a trabajar con ellos, si por ejemplo una textura no esta y esta en el otro bloque entonces se tiene que ir a leer en el otro bloque, si no esta bien planificado o no hay una manera de acceder rapido a esta memoria, entonces pueden surgir cuellos de botella que no estarian con un espejo de la memoria, veo mas factible usar el otro gpu para tareas no graficas como fisicas y demas o usar espejos




Yo creo que ahi podria haber un problema(aunque puedo estar equivocado y lo mismo no hay nada).

En el caso de que en un SLI o un Crosfire la memoria pueda ser sumada que pasaria si por ejemplo la grafica principal tuviera que hacer uso de la vram de la segunda y se tengan que comunicar a traves del Pcie, que pasaria con la enorme diferencia de ancho de banda de graficas como la 780ti o la 290X, que pasan holgadamente de los 300GB/s con el ancho de banda del PCie 3.0 16x 16x(esto contando que tienes una plataforma Intel X58 X79 o X99 con micros de 40 lanes pci-e, sino seria 3.0 8x 8x)


correcto, el PCIe no les va a dar el mismo ancho de banda, por eso es necesario hacer un espejo en cada tarjeta y no sumar la memoria, otra cosa seria si algun vinculo le permitiera a una tarjeta acceder a la memoria de la otra como si fuese la propia pero eso ya seria un hardware extra, no lo que propone MS, en todo caso se puede usar para acelerar ciertos procesos como la fisica

se vuelve muy complicado sobre todo entre fabricantes, veo muchos problemas como para que los desarrolladores se tomen la molestia dado que puede haber muchas configuraciones y mucho margen de error en lugar de solo limitarse a pedir una gpu mas potente y quien no que tire de un sli
destroyerjjbg escribió:
nekuro escribió:¿Por que iba un usuario de nvidia a necesitar nada de una gráfica amd? Aunque el caso contrario puedo llegar a entenderlo.


Quizas por mantle? quizas por tress fx ? quizas por otras antialiasings mas efectivos?
Cada una tiene sus tecnologias por otro lado logicas para intentar diferenciarse y vender.
Respecto a la noticia , me parece muy buena iniciativa. Ahora falta ver si realmente se implementara bien o sera todo agua de borrajas. Me compre una ati esperando las nuevas de nvidia y que bajaran de precio y me podria ir de perlas, aunque desconfio porque si ya en sli o crossfire hay problemas con los juegos con este crossover no se lo que pasara.
Que tal os funcionan lo slis y crossfires a los que lo teneis?

salu2

Y ni con mantle, tress fx y mejorando los antialias estan a la altura de Nvidia XD

Naaaah, no me hagas ni caso, just trolling.
destroyerjjbg escribió:
nekuro escribió:¿Por que iba un usuario de nvidia a necesitar nada de una gráfica amd? Aunque el caso contrario puedo llegar a entenderlo.


Quizas por mantle? quizas por tress fx ? quizas por otras antialiasings mas efectivos?salu2


Pues no sé a que viene lo de "Trees Fx" como si fuera exclusivo de AMD. Tengo un SLI de GTX 970 y puedo activarlo en Tomb Raider, por ejemplo, para que se le vea el "pelo Pantene".

Ahora bien, AMD puede activar Physx? :-|

Salu2 [fumando]
Sería cojonudo y es todo un puntazo por parte de MS, pero seamos objetivos: esto lo van a poder aprovechar un pequeño número de usuarios (los que monten pares de tarjetas AMD y Nvidia para las cuales exista el software optimizado correspondiente a esta función) y en un número igualmente pequeño de juegos (la optimización de las versiones PC en muchísimos casos brilla por su ausencia, así que como para esperar de que se preocupen por sincronizar tarjetas AMD-Nvidia....)
Yo veo demasiadas lagunas en todo esto. Esta claro que no va a ser un dicho y hecho como podria parecer de la noticia, pero se abre la veda y se puede ir avanzando poco a poco.

Quiza algun dia los PC puedan tener tambien un grado de utilizacion de su hardware aceptable.
millenium escribió:
destroyerjjbg escribió:
nekuro escribió:¿Por que iba un usuario de nvidia a necesitar nada de una gráfica amd? Aunque el caso contrario puedo llegar a entenderlo.


Quizas por mantle? quizas por tress fx ? quizas por otras antialiasings mas efectivos?salu2


Pues no sé a que viene lo de "Trees Fx" como si fuera exclusivo de AMD. Tengo un SLI de GTX 970 y puedo activarlo en Tomb Raider, por ejemplo, para que se le vea el "pelo Pantene".

Ahora bien, AMD puede activar Physx? :-|

Salu2 [fumando]


Poder puedes en algunos juegos con parche y en otros por cpu [fumando]

Huele a fanboysmo
Hay que tener en cuenta que todo esto a dia de hoy esta muy verde
Este tipo de cambios tan importante se hacen con vistas a largo plazo, es decir, que esto esta pensado para cubrir las necesidades de los usuarios en los proximos 5 o 10 años

Tanto mantle como directx12 para ser aprovechados eficientemente es necesario que el codigo este preparado para trabajar asi
No vamos a encontrar muchos juegos que lo usen de momento (por eso los tests de rendimiento que se publican por ahi no se pueden tomar al pie de la letra)... y los primeros juegos que salgan seguro que no lo aprovechan al maximo

habra que esperar a ver que tal funciona el invento...
nekuro escribió:
destroyerjjbg escribió:
nekuro escribió:¿Por que iba un usuario de nvidia a necesitar nada de una gráfica amd? Aunque el caso contrario puedo llegar a entenderlo.


Quizas por mantle? quizas por tress fx ? quizas por otras antialiasings mas efectivos?
Cada una tiene sus tecnologias por otro lado logicas para intentar diferenciarse y vender.
Respecto a la noticia , me parece muy buena iniciativa. Ahora falta ver si realmente se implementara bien o sera todo agua de borrajas. Me compre una ati esperando las nuevas de nvidia y que bajaran de precio y me podria ir de perlas, aunque desconfio porque si ya en sli o crossfire hay problemas con los juegos con este crossover no se lo que pasara.
Que tal os funcionan lo slis y crossfires a los que lo teneis?

salu2

Y ni con mantle, tress fx y mejorando los antialias estan a la altura de Nvidia XD

Naaaah, no me hagas ni caso, just trolling.

rofl
Si funciona realmente, me parece un gran avance
Mucho odio a MS veo, no os entiendo sobre todo por que que yo recuerde nunca han mentido o han hecho promesas falsas con los directX. Si las tarjetas son nativas dx12 no veo por que no se puede hacer. Eso si Olvidaos de que lo hagan las tarjetas anteriores.
Que pasada! Y lo mejor es que encima las memorias de las gpus se suman, no como hasta ahora. Suena demasiado bonito todo, pero si todo va bien es una caña esto.

Todo es tremendamente bonito, con unas ganancias de fps en todos los benchmarks que te tiran al suelo de tu sofa. ¿porque no vino antes? Que ganas de probarlo.
Pinta muy bien, casi diría que demasiado. Ya es complicado hacer que funcione perfectamente un sli/crossfire como para meter modelos distintos y encima marcas con tecnologías diferentes, pero vamos supongo que se repartirán el trabajo. Ahora, lo más importante será que los desarrolladores del juego lo hiciesen con ese propósito también, lo cual es algo que ya dudo más.
De todas maneras toda mejora es bienvenida y veremos en qué queda.
he entendido que se pueden unificar 2 graficas distintas marcas,

pero tambien de distintas potencia, o que?
es decir :
¿podria hacer sli o una gtx560 con una gtx980?
Como seria fusionar una AMD R9 295x2 y una GTX Titan black en el futuro? Dios un pepinaco que todo gamer quiere emparejar en su pc [babas] [babas] [babas] [babas]
Se me acaba de ocurrir, podrían AMD y NVIDIA diseñar tarjetas graficas baratas que solo sirvan de apoyo a una que ya tengas? Podrían ser especificas en plan una que añada potencia bruta pero sin vram ya que con tus 4Gb tienes de sobra o al contrario que por 50-100 euros puedas ampliar la vram de tu sistema.
Noticia en portada sobre DX12. Ni una mención a XBOX ONE sobre DX12 desde hace meses.

Saludos.
no sabia que se podian poner 2 tio, joder DOS.

soy extremadamente novato en esto (lo acabo de descubrir vaya XD)

tengo una gtx 550 que hasta ahora me da para jugar a los juegos de la next gen con un nivel "normalito" de grafitos, si pongo dos gtx 550 (que vale esa tarjeta unos 75€) como que "potencia" puedo llegar a tenel?

2 gb de ddram ddr5¿

eso a que equivaldria XD?
malosoxxx escribió:Noticia en portada sobre DX12. Ni una mención a XBOX ONE sobre DX12 desde hace meses.

Saludos.

Que pesados con ONE. Las noticias que salen sobre DX12 son respecto a PC que es donde es más relevante, no culpes de eso a los redactores.
direct x12 mejora el rendimiento de la grafica no? entonces quiere decir que mi 970 ira mas rapido o que?
apietoteae escribió:no sabia que se podian poner 2 tio, joder DOS.

soy extremadamente novato en esto (lo acabo de descubrir vaya XD)

tengo una gtx 550 que hasta ahora me da para jugar a los juegos de la next gen con un nivel "normalito" de grafitos, si pongo dos gtx 550 (que vale esa tarjeta unos 75€) como que "potencia" puedo llegar a tenel?

2 gb de ddram ddr5¿

eso a que equivaldria XD?

puedes emsamblar 2 o mas segun las ranuras de pciexpress que tenga tu placa, aparte de que la grafica tiene que tener otra conexion en el polo opuesto donde esta conectada ala placa, y en emsablador para unificarla con la otra grafica, se emsamblador se llama sli en el caso de nvidia y crossfire en el caso de amd,

pero tienes que tener las misma grafica, es decir si quieres emsamblar 4, las 4 graficas tienes que ser gtx 980 de 4gb, no vale una de 2 y otras de 4 no, tienes que ser todas clones,

pero ahora con esta noticia se dice que puedes unificar graficas de distintas marcas

pero la duda mia es si se puede de la misma marca pero con disitinta potencia, sin imporatr la vram lo hz
aver si alguien me contesta
galbafer escribió:direct x12 mejora el rendimiento de la grafica no? entonces quiere decir que mi 970 ira mas rapido o que?

DX12 reduce el cuello de botella de la CPU, lo cual permitirá aprovechar más la GPU, pero no tendrás una GPU más rápida y en los tipos de juegos que ya utilicen las GPU al 100% no va a traer apenas novedades en cuanto a rendimiento.

A parte de eso si que expone las nuevas tecnologías que lleva tu GTX 970 y las anteriores no, y permite que nuevas técnicas que utilicen rasterización conservativa o volume tiled resources(utilizados por ejemplo para iluminación global) funcionen hasta 3 veces más rápido en tu GPU que en las anteriores arquitecturas de NVIDIA o en las de las actuales consolas, por ejemplo.
josemurcia escribió:
galbafer escribió:direct x12 mejora el rendimiento de la grafica no? entonces quiere decir que mi 970 ira mas rapido o que?

DX12 reduce el cuello de botella de la CPU, lo cual permitirá aprovechar más la GPU, pero no tendrás una GPU más rápida y en los tipos de juegos que ya utilicen las GPU al 100% no va a traer apenas novedades en cuanto a rendimiento.

A parte de eso si que expone las nuevas tecnologías que lleva tu GTX 970 y las anteriores no, y permite que nuevas técnicas que utilicen rasterización conservativa o volume tiled resources(utilizados por ejemplo para iluminación global) funcionen hasta 3 veces más rápido en tu GPU que en las anteriores arquitecturas de NVIDIA o en las de las actuales consolas, por ejemplo.

pero eso es los juegos actuales y de hace menos de una año
o mejorara el rendimiento si juego al resident evil 5??
Mejorará el rendimiento en los juegos que hagan con DX12 frente a lo que sería el mismo juego con DX11. Nada de mejorar los juegos actuales.
indigo_rs está baneado por "saltarse el ban con un clon"
A ver si lo sacan cuanto antes, es fundamental la optimización en los juegos.
peyote78 escribió:bueno, piensa en esos juegos que tienen opciones gráficas exclusivas para una marca u otra, si tienes las 2, seguro que no fallas

PD: pienso seguir con una sola grafica en mi torre


Cierto, de todas formas en las Nvidia quitar el MSAA por el TXAA o FXAA no me gusta nada, aunque mejoran el rendimiento los juegos que tienen estas opciones que no son MSAA me hacen muchas lineas blancas en los bordes de los objetos y me dejan una vista asquerosa del juego :S, el que mas lo note fue el Alíen Isolation que me daba pena jugar con esas lineas aun poniéndolo en 3K (2880x1800), Esto si, Nvidia tiene el DSR que eso esta genial. Jugar al Skyrim en 3K con Mods de texturas 4K y modelos de alta calidad es una gozada :D, tengo mas de 50 mods para que el juego sea hyperrealista, lastima que coma una burrada de grafica, RAM y procesador y me haga cosas rarisimas y cuelgues pero es lo que hay xD

Riwer escribió:
Ya han salido los primeros analisis serios sobre DX12 (y no de Nvidia /AMD o Microsoft), sino de AnandTech.
http://images.anandtech.com/graphs/graph8962/71450.png

Subir de 26 a 66FPS en una 980 es una barbaridad de mejoria. (y solo por cambiar de DX11 a DX12), aunque si, en solo un escenario muy determinado, que se sepa por ahora.

No se que pacto habran firmado con el diablo, pero está empezando a ser analizado por la prensa especializada.
De hecho esto viene a que empieza ya la GDC donde se va a exponer todo esto.



Si pero es solo 1 gráfica de DX12 con una demo exclusiva que se aprovecha de las optimizaciones de DX12, la idea es mostrar juegos actuales no una demo preparada, por eso digo que es solo marketing, yo quiero ver una comparativa de un juego actual haciendo uso de DX11 y DX12 y luego también quiero ver eso de las 2 tarjetas de diferente marca funcionando y comparándose con SLI y XFIRE a ver si realmente se fusionan y todo eso tal y como decías.

deividjg escribió:Brutal el odio gratuito que se respira hacia Microsoft, de verdad que no lo entiendo. Si no te gusta pues esto es como las novias, déjala. Y con respecto a lo americano que cuentas, pues deja también a Intel, Nvidia, AMD, Apple, Google... y a tirar con otras cosas, que las hay. Pero claro, seguro que resultará que al final no es tan malo y aplicaremos el típico ni contigo ni sin tí.


Sistema Operativo: Linux." ahora tengo Lubuntu " que lastima esta muy capado :(
HW: Intel, AMD, Nvidia, Apple (Made in China) (Diseñado en América por Chinos y fabricado por Chinos en China)
Buscador: Trovator (No es muy bueno pero es Español)
Smartphone: BQ Aquaris 5 (Diseñado en España fabricado en China por Chinos)

Si lo odio es por algún motivo y por eso no lo utilizare. Lo unico Americano que tengo es el Steam y apenas juego ya que estoy hasta los.. del PayDay2 y sus Bugs. No son capaces de sacar un parche que arregle los fallos pero si son capaces de sacar cientos de DLCs.
Rubéns escribió:
apietoteae escribió:no sabia que se podian poner 2 tio, joder DOS.

soy extremadamente novato en esto (lo acabo de descubrir vaya XD)

tengo una gtx 550 que hasta ahora me da para jugar a los juegos de la next gen con un nivel "normalito" de grafitos, si pongo dos gtx 550 (que vale esa tarjeta unos 75€) como que "potencia" puedo llegar a tenel?

2 gb de ddram ddr5¿

eso a que equivaldria XD?

puedes emsamblar 2 o mas segun las ranuras de pciexpress que tenga tu placa, aparte de que la grafica tiene que tener otra conexion en el polo opuesto donde esta conectada ala placa, y en emsablador para unificarla con la otra grafica, se emsamblador se llama sli en el caso de nvidia y crossfire en el caso de amd,

pero tienes que tener las misma grafica, es decir si quieres emsamblar 4, las 4 graficas tienes que ser gtx 980 de 4gb, no vale una de 2 y otras de 4 no, tienes que ser todas clones,

pero ahora con esta noticia se dice que puedes unificar graficas de distintas marcas

pero la duda mia es si se puede de la misma marca pero con disitinta potencia, sin imporatr la vram lo hz
aver si alguien me contesta


gracias por la aclaracion, me he quedado [boing] [boing] [boing]
adriano_99 escribió:Se me acaba de ocurrir, podrían AMD y NVIDIA diseñar tarjetas graficas baratas que solo sirvan de apoyo a una que ya tengas? Podrían ser especificas en plan una que añada potencia bruta pero sin vram ya que con tus 4Gb tienes de sobra o al contrario que por 50-100 euros puedas ampliar la vram de tu sistema.


Bueno, eso serian las de gama baja que ya hay, como la gtx750 por ejemplo, o hasta una 730 por menos de 100 pavos con 2GB de Vram, que te ampliarán la RAM XD Ya veremos como funciona, a mi me parece acojonante todo lo relacionado con DirectX12.

P.D: No se habla de One, pero cualquier hardware por los benchmarks muestran mejoras de rendimiento notables, y la One es hardware igual. Ya se verá en cuanto termina siendo esa mejora.
Lo que sería más estupendo para la mayoría de usuarios es poder usar la integrada al mismo tiempo que la discreta, ya que las CPU incluso Intel llevan una GPU integrada. Que si bien no es una maravilla algo pueden hacer, mejor que estar simplemente desactivada.

Esto permitiría darle un empujoncito a aquellos que pillan tarjetas low y mid, sin necesidad de tener que buscar combinaciones tipo hybrid crossfire ni cosas raras.
darksch escribió:Lo que sería más estupendo para la mayoría de usuarios es poder usar la integrada al mismo tiempo que la discreta, ya que las CPU incluso Intel llevan una GPU integrada. Que si bien no es una maravilla algo pueden hacer, mejor que estar simplemente desactivada.

en eso tienes razon, por que por ejemplo se puede utilizar la grafica incorporada que lleva mi I7 junto a mi r9 290,o sea aunque no sea mucho, el hecho de ya llevar el directx 12 que ya de hacho da mas rendimiento al trabajar a bajo nivel, mas ahora tambien poder aprobechar la grafica integrada, el salto de rendimiento de aqui en adelante puede ser bestial en los equipos nuestros
A mi estos de Microsoft me tienen cada día más contento ... a ver que puedo sacar en rendimiento de las 2 gtx970 que tengo. Y si al final se consigue jugar a 4K de manera decente (60fps)?

Me tocará esperar a que salga para comprarme el monitor. Que indecisión 1440p IPS G-sync a 144hz (ACER XB270HU) o 4k IPS G-sync a 60 Hz (Asus PG27AQ)?

A ver en que queda todo y si verdaderamente se conseguiran esas mejoras de rendimiento porque sinó voy a lo seguro 1440p.
josemurcia escribió:Mejorará el rendimiento en los juegos que hagan con DX12 frente a lo que sería el mismo juego con DX11. Nada de mejorar los juegos actuales.

mejorar los juegos que tenga la opción de dirext 12 no?
y no afectara a juegos de dirext 11 para abajo como el crysis 2 no?
gunman1976 escribió:A mi estos de Microsoft me tienen cada día más contento ... a ver que puedo sacar en rendimiento de las 2 gtx970 que tengo. Y si al final se consigue jugar a 4K de manera decente (60fps)?

Me tocará esperar a que salga para comprarme el monitor. Que indecisión 1440p IPS G-sync a 144hz (ACER XB270HU) o 4k IPS G-sync a 60 Hz (Asus PG27AQ)?

A ver en que queda todo y si verdaderamente se conseguiran esas mejoras de rendimiento porque sinó voy a lo seguro 1440p.



Yo no he probado 4K , pero tengo un 1440p 144hz, una fluidez increible, no pierdes nada de nitidez en movimientos rapidos de camara, luego cuando veas monitores a 60Hz y veras que notas que le falta ''algo'' aunque igualmente va fluido [+risas]

El otro dia volvi a puse GTA V en la consola(donde sino [sati] ) y buf, al principio se pasa mal acostumbrado a jugar a 120/144fps, lo notas todo que va como a golpes a 30fps.


Ara, aparte de un buen par de graficas ten a mano una bestia de micro que sea capaz de escupir 144fps en juegos punteros y no le hagan cuello de botella a las graficas que tienen que trabajar y mucho [+risas] [+risas]
Como alternativa para los usuarios me aprece genial, pero, y los drivers?

Si algunos juegos (sobre todo los recien horneados) dan problemas de drivers... no me quiero ni imaginar que puede salir al conectar dos graficas con drivers distintos :S
kikomanco escribió:
darksch escribió:Lo que sería más estupendo para la mayoría de usuarios es poder usar la integrada al mismo tiempo que la discreta, ya que las CPU incluso Intel llevan una GPU integrada. Que si bien no es una maravilla algo pueden hacer, mejor que estar simplemente desactivada.

en eso tienes razon, por que por ejemplo se puede utilizar la grafica incorporada que lleva mi I7 junto a mi r9 290,o sea aunque no sea mucho, el hecho de ya llevar el directx 12 que ya de hacho da mas rendimiento al trabajar a bajo nivel, mas ahora tambien poder aprobechar la grafica integrada, el salto de rendimiento de aqui en adelante puede ser bestial en los equipos nuestros

Pues tengo mis dudas, puede que hasta baje el rendimiento. A veces pasa que un programa multihilo pierda rendimiento respecto a uno monohilo (excesivos mecanismos de sincronización, escasa memoria caché...). No me imagino como sería cuando unos de los "núcleos" sea muchísimo más lento que el otro, como sería el caso de una gráfica + GPU integrada.

Pequadt escribió:Si algunos juegos (sobre todo los recien horneados) dan problemas de drivers... no me quiero ni imaginar que puede salir al conectar dos graficas con drivers distintos :S

Se supone que es trabajo de Directx resolver las diferencias entre los dos hardwares.
Muy interesante esto la verdad. Creo que es algo que ya se llevaba queriendo desde hace muchos años.
En realidad soluciones como el Virtu MVP ya realizan una suma de potencia de una integrada mas una dedicada. (no es exactamente sumar, pero si usas ambas para tener mas rendimiento)
Suena a incompatibilidad everywhere, a ver como unes 2 tarjetas diferentes con diferentes bits, mhz y specs entre ambas para que se complementen bien la una con la otra y de un resultado logico de una suma entre ambas. [carcajad]
Acabo de correrme, ¿alguno tiene un pañuelo?
Yo esto no acabo de verlo. Tener drivers de ambas en el mismo PC sin causar conflictos, teniendo arquitecturas distintas, especificaciones diferentes en varios aspectos, tecnologías de una que la otra no tiene y viceversa... A lo mejor dan un "¡ZAS en toda la boca!", pero así de primeras, a esto le veo yo esos problemas. Y no sólo esos, sino los que podrían aparecer al tener un equipo así.
DaNi_0389 escribió:
gunman1976 escribió:A mi estos de Microsoft me tienen cada día más contento ... a ver que puedo sacar en rendimiento de las 2 gtx970 que tengo. Y si al final se consigue jugar a 4K de manera decente (60fps)?

Me tocará esperar a que salga para comprarme el monitor. Que indecisión 1440p IPS G-sync a 144hz (ACER XB270HU) o 4k IPS G-sync a 60 Hz (Asus PG27AQ)?

A ver en que queda todo y si verdaderamente se conseguiran esas mejoras de rendimiento porque sinó voy a lo seguro 1440p.



Yo no he probado 4K , pero tengo un 1440p 144hz, una fluidez increible, no pierdes nada de nitidez en movimientos rapidos de camara, luego cuando veas monitores a 60Hz y veras que notas que le falta ''algo'' aunque igualmente va fluido [+risas]

El otro dia volvi a puse GTA V en la consola(donde sino [sati] ) y buf, al principio se pasa mal acostumbrado a jugar a 120/144fps, lo notas todo que va como a golpes a 30fps.


Ara, aparte de un buen par de graficas ten a mano una bestia de micro que sea capaz de escupir 144fps en juegos punteros y no le hagan cuello de botella a las graficas que tienen que trabajar y mucho [+risas] [+risas]


Creo que tengo un buen pepino de micro ... un i7 4790K + 16Gb RAM G-Skill TridentX a 2400Mhz (+16 en camino que llegarán el martes para virtualizar máquinas) + 1 disco SHDD (hibrido) de 1TB de Seagate para instalar los juegos + 2 discos duros Samsung Evo 840 (uno para S.O. y otro para las máquinas virtuales) + placa ASUS ROG Z97 Maximus VII Formula + Fuente alimentación Corsair AX760 platinum.

Creo que con esto y el SLI de 2 GTX970 G1 Gaming tendré bastante. No lo crees compañero? [oki]
Yo no le pillo la gracia de combinar ati y NVIDIA, si alguien va a tener un equipo con dos tarjetas gráficas para jugar se comprará dos tarjetas exactamente iguales, no creo q haya mucha gente con tanto dinero como para hacer ese tipo de pruebas, igual me equivoco y de ahí sale algo diferente a lo visto hasta ahora, pero yo no lo veo.
josemurcia escribió:
malosoxxx escribió:Noticia en portada sobre DX12. Ni una mención a XBOX ONE sobre DX12 desde hace meses.

Saludos.

Que pesados con ONE. Las noticias que salen sobre DX12 son respecto a PC que es donde es más relevante, no culpes de eso a los redactores.


Creo que el primer hardware 100% compatible con DX12 alguna mención merece cuando se habla de de dicha api.

Repito para los duros de mollera. En portada no se ha mencionado lo más mínimo. Esto es cuanto menos raro.
malosoxxx escribió:
josemurcia escribió:
malosoxxx escribió:Noticia en portada sobre DX12. Ni una mención a XBOX ONE sobre DX12 desde hace meses.

Saludos.

Que pesados con ONE. Las noticias que salen sobre DX12 son respecto a PC que es donde es más relevante, no culpes de eso a los redactores.


Creo que el primer hardware 100% compatible con DX12 alguna mención merece cuando se habla de de dicha api.

Repito para los duros de mollera. En portada no se ha mencionado lo más mínimo. Esto es cuanto menos raro.

A lo mejor porque no hay nada que decir?
malosoxxx escribió:
Creo que el primer hardware 100% compatible con DX12 alguna mención merece cuando se habla de de dicha api..

Y va implícito en el artículo, ya que el primer hardware 100% compatible con DX12 tiene ya 5 años.
http://www.nvidia.es/object/product_gef ... 70_es.html
gunman1976 escribió:
DaNi_0389 escribió:
gunman1976 escribió:A mi estos de Microsoft me tienen cada día más contento ... a ver que puedo sacar en rendimiento de las 2 gtx970 que tengo. Y si al final se consigue jugar a 4K de manera decente (60fps)?

Me tocará esperar a que salga para comprarme el monitor. Que indecisión 1440p IPS G-sync a 144hz (ACER XB270HU) o 4k IPS G-sync a 60 Hz (Asus PG27AQ)?

A ver en que queda todo y si verdaderamente se conseguiran esas mejoras de rendimiento porque sinó voy a lo seguro 1440p.



Yo no he probado 4K , pero tengo un 1440p 144hz, una fluidez increible, no pierdes nada de nitidez en movimientos rapidos de camara, luego cuando veas monitores a 60Hz y veras que notas que le falta ''algo'' aunque igualmente va fluido [+risas]

El otro dia volvi a puse GTA V en la consola(donde sino [sati] ) y buf, al principio se pasa mal acostumbrado a jugar a 120/144fps, lo notas todo que va como a golpes a 30fps.


Ara, aparte de un buen par de graficas ten a mano una bestia de micro que sea capaz de escupir 144fps en juegos punteros y no le hagan cuello de botella a las graficas que tienen que trabajar y mucho [+risas] [+risas]


Creo que tengo un buen pepino de micro ... un i7 4790K + 16Gb RAM G-Skill TridentX a 2400Mhz (+16 en camino que llegarán el martes para virtualizar máquinas) + 1 disco SHDD (hibrido) de 1TB de Seagate para instalar los juegos + 2 discos duros Samsung Evo 840 (uno para S.O. y otro para las máquinas virtuales) + placa ASUS ROG Z97 Maximus VII Formula + Fuente alimentación Corsair AX760 platinum.

Creo que con esto y el SLI de 2 GTX970 G1 Gaming tendré bastante. No lo crees compañero? [oki]



Equipazo, ese 4790k hace volar al SLI de 970, estate seguro de esto [oki]
[erick] escribió:Yo no le pillo la gracia de combinar ati y NVIDIA, si alguien va a tener un equipo con dos tarjetas gráficas para jugar se comprará dos tarjetas exactamente iguales, no creo q haya mucha gente con tanto dinero como para hacer ese tipo de pruebas, igual me equivoco y de ahí sale algo diferente a lo visto hasta ahora, pero yo no lo veo.


El royo es que por ejemplo una 280x o una 290 están bastante bien de precio para el rendimiento Que tienen. Y me repito con esta gráfica pero he visto una nueva 290x por 411 napos de 8Gb de Vram. Seria una Buen combinación con una 970 por ejemplo. Pero primero hay que ver en que queda esto
107 respuestas
1, 2, 3