AMD promete solucionar pronto los problemas con Rage (Actualizado)

Y para los usuarios de WinXP que no quieren pasarse a Win7 que?
gatts01 escribió:Y para los usuarios de WinXP que no quieren pasarse a Win7 que?


No teneis ni direcxt 11, no podeis tener(aprovechar) hardware de ahora puesto que winxp ni gestiona bien el multinucleo y estas hablando de que las compañias se preocuponen por un sistema "freno"?
Hacen lo que tienen que hacer, darle cada vez menos soporte, que hasta los netbooks vienen con win7 (no sera por requisitos minimos), si se quiere ser conservador que se apechugue, que es muy contradictorio volverse conservador y querer lo ultimo.

Porque eso ya es como decir, porque no hacen ports de PS3 para PS2 para los usuarios que no queremos pasarnos a PS3? venga ya
Es un fallo con los últimos controladores, está claro que los betatesters no pueden probarlo con la última versión de los controladores.
Riwer escribió:Mas bien me creo que ha sido desarrollado por Crytek con ayuda de Nvidia, o por Nvidia con instrucciones de Crytek (basicamente porque no es crytek quien ayuda a nvidia, sino nvidia a Crytek), puesto que si hay que parchear el codigo fuente de crytek, es crytek quien sabe como hacerlo y quien le tiene acceso. Al Cry Engine le puede faltar optimizacion y muchas cosas, pero Crysis2 con el parche DX11 funciona perfectamente con cualquier ATI.

Aqui esque se ha insinuado directamente lo contrario, que si los drivers de ATI son malos es por culpa de nvidia, y que si sale el logo de nvidia es porque ha participado en el desarrollo del juego....
por favor....
Que si, que se podra decir que nvidia a colaborado con epic games en el UE, pero no por eso cada empresa que compre licencia de UE y desarrolle un juego significa que lo ha desarrollado nvidia... en todo caso epic games y ni asi.


Te lo vuelvo a repetir por si no ha quedado claro: el parche DirectX11 ha sido desarrollado por NVIDIA con la ayuda de Crytek. Existen cosas como el crosslicense y demás, no tienen porqué tener acceso al código fuente sólo los de Crytek cuando éstos te ofrecen el código del CryEngine para desarrollar tus propios videojuegos.

Y efectivamente, si aparece el logo de NVIDIA es porque ésta ha participado en el desarrollo del juego. Concretamente NVIDIA sigue la tendencia de que mayor complejidad geométrica ofrece mayor calidad de imagen y sus gráficas están echas en consecuencia (tienen mayor capacidad de teselación). AMD sin embargo opta por una opción más inteligente y no desperdicia transistores de forma absurda en capacidad poligonal, hay otras cosas que cuentan para la calidad visual. En general el ojo humano compara la complejidad de la imagen, y un objeto que por naturaleza es plano seguirá siendo plano aunque le metas 50 mil millones de polígonos más.

Luego te encuentras con que Crysis 2 tiene estupideces como agua invisible que está desperdiciando capacidad de procesado de la GPU, o bloques de hormigón y suelos planos con un nivel de teselación absurdo sin tan siquiera haber aplicado displacement maping.

No es coincidencia que casi todos los juegos patrocinados por NVIDIA corran mejor sobre NVIDIA y no AMD, entre ellos casi todos los realizados con el Unreal Engine.
Filiprino escribió:
Riwer escribió:Mas bien me creo que ha sido desarrollado por Crytek con ayuda de Nvidia, o por Nvidia con instrucciones de Crytek (basicamente porque no es crytek quien ayuda a nvidia, sino nvidia a Crytek), puesto que si hay que parchear el codigo fuente de crytek, es crytek quien sabe como hacerlo y quien le tiene acceso. Al Cry Engine le puede faltar optimizacion y muchas cosas, pero Crysis2 con el parche DX11 funciona perfectamente con cualquier ATI.

Aqui esque se ha insinuado directamente lo contrario, que si los drivers de ATI son malos es por culpa de nvidia, y que si sale el logo de nvidia es porque ha participado en el desarrollo del juego....
por favor....
Que si, que se podra decir que nvidia a colaborado con epic games en el UE, pero no por eso cada empresa que compre licencia de UE y desarrolle un juego significa que lo ha desarrollado nvidia... en todo caso epic games y ni asi.


Te lo vuelvo a repetir por si no ha quedado claro: el parche DirectX11 ha sido desarrollado por NVIDIA con la ayuda de Crytek. Existen cosas como el crosslicense y demás, no tienen porqué tener acceso al código fuente sólo los de Crytek cuando éstos te ofrecen el código del CryEngine para desarrollar tus propios videojuegos.

Y efectivamente, si aparece el logo de NVIDIA es porque ésta ha participado en el desarrollo del juego. Concretamente NVIDIA sigue la tendencia de que mayor complejidad geométrica ofrece mayor calidad de imagen y sus gráficas están echas en consecuencia (tienen mayor capacidad de teselación). AMD sin embargo opta por una opción más inteligente y no desperdicia transistores de forma absurda en capacidad poligonal, hay otras cosas que cuentan para la calidad visual. En general el ojo humano compara la complejidad de la imagen, y un objeto que por naturaleza es plano seguirá siendo plano aunque le metas 50 mil millones de polígonos más.

Luego te encuentras con que Crysis 2 tiene estupideces como agua invisible que está desperdiciando capacidad de procesado de la GPU, o bloques de hormigón y suelos planos con un nivel de teselación absurdo sin tan siquiera haber aplicado displacement maping.

No es coincidencia que casi todos los juegos patrocinados por NVIDIA corran mejor sobre NVIDIA y no AMD, entre ellos casi todos los realizados con el Unreal Engine.


Vamos a ver, sabras de sobra que el tema del parche tanto nvidia como crytek han trabajado juntos. Que ha puesto mas nvidia que crytek para el parche? no lo he negado, pero te confundes al decir que es Crytek quien ayuda a nvidia. Es nvidia quien ayuda a Crytek (es simplemente una chorrada, pero por el juego de palabras lo estas explicando mal)
De quien es el juego? de Crytek. Para que sacan el parche? para que no quede SU juego como un cutre port de la version de consolas.

Como si nvida programa el parche entero sin colaboracion de crytek, es nvidia quien esta ayudando a Crytek a que su juego sea mejor, de ahi que diga que antes me creo que el parche ha sido desarrollado por nvidia con instrucciones de Crytek.
Y no, no tiene nada que ver que el CryEngine sea libre con el codigo fuente de Crysis 2. Codigo fuente que obviamente es cerrado.
Y no, si aparece el logo de nvidia no es porque haya participado en el desarrollo del juego, es porque patrocina al juego por diversos acuerdos.

Que si, que habran casos que si, al igual que AMD con otros juegos, pero yo mismo lo he dicho antes, que en el UE haya colaborado nvidia no tiene absolutamente ninguna relacion con el desarrollo de juegos bajo UE. Se compra licencia de UE y punto, Como puede ser el caso de Last Remant o muchisimos otros desarrollados con Unreal engine.
Hay logo de nvidia en Unreal 3? Si, ha participado en el desarrollo del juego? No.
Que haciendo alusion al codigo de Cry Engine y excusando en eso que el codigo de Crysis 2 podria no ser cerrado es tan absurdo como decir que es publico el codigo fuente de Gears of Wars 3. Nada tiene que ver el codigo de programacion de la herramienta con el del juego, que ademas, de donde te sacas tu que el codigo del Cryengine es libre? porque no lo es, sino cualquier empresa le copiaba el codigo y lo modificaba para hacer sus propios motores graficos. Lo que es libre es el SDK del CryEngine.

Y el tema de los enfoques de nvidia y ati muy bonitos, pero no te olvides de que estas hablando desde tus suposiciones personales, no desde la realidad.
"en mi opinion" (cosa que a ti te falto especificar) nvidia hace lo correcto centrandose en el numero de poligonos. (se vera igual de profundo y realista el cloud de FF7 original con el de AC verdad? XD ) Y hablas de que no es lo unico, sera que las ATI tienen filtros que no tienen NVIDIA verdad? por eso hay juegos que si tienes una ATI incluso te hace falta instalarte las physics de nvidia por software.... *en que se especializa ati? enhaber sacado el multigpu antes? multigpu que ya sido superado por la nvidia GTX590?
anda, si va a resultar que nvidia lo tiene todo pero a ATI le faltan cosas. Porque sabras tambien que bastante peña que lo sabe se compra una ATI por ser mas baratas y se pone una nvidia de secundaria por las fisicas. Pero ya ves tu, ya ni hablar del 3D. "mejor multi GPU, mil veces mejores drivers, mil veces mejor soporte 3D, el nvidia physics, etc etc". Pero nada, ATI/AMD ha hecho los movimientos mas inteligentes, sera por eso que a las thirds les interesa colaborar con nvidia en sus proyectos.....
O ahora saltara alguien diciendo que esque nvidia es microsoft y soltara alguna idiotez.

Y que conste que no soy fanboy de nvidia, tengo tanto ATI como nvidia en mis ordenadores personales.
Riwer escribió:No voy a entrar en el debate de si es mejor ATI o Nvidia *tengo en mi habitacion un pc con una ATI HD6870 y otro con una nvidia GTX 560 TI*
Pero si dire una cosa, y es que los drivers de ATI son una peste.
No poder ni configurar el reescalado, ni crear resoluciones personalizadas.... *algo demasiado basico, ya ni entrare en lo demas*
Nvidia a cada actu de driver mejora el rendimiento en muchos juegos, en mi opinion:

Drivers nvidia: todo lo que necesites esta, ademas de que se nota que nvidia se esfuerza en exprimir las graficas sacando todo el rendimiento posible.
Drivers ati: ademas de ser una interfaz poco intuitiva y limitada se limitan a arreglar problemas y centrarse en algun juego estrella, como ambas compañias sacando ahora drivers para battlefield 3,
en los drivers ati parecen versiones beta las versione finales. Que por ejemplo, no puedo conectar con los ultimos drivers un monitor por HDMI o a cada juego a pantalla completa le aparece un borde negro por toda la imagen. Cambias a cable VGA y sin problemas... venga ya.

Y precisamente en estos modelos, una 6870 es mas barata que una GTX560 TI, si, pero una GTX560 TI de stock es mas potente que una version overclokeada de una HD6870.
Hoy en dia la relacion calidad precio no la tiene ati, es segun la gama, y en la gama medio alta gana indiscutiblemente la GTX 560 TI en relacion calidad/precio.


Repito, págala tú, la 560ti cuesta más que la 6870 y repito, no todo el mundo es programador ni busca tantas opciones de configuración gráficas... lo dije claro al principio, que según el segmento y a quien vaya enfocado el producto gustará mas uno u otro, pero me gusta tu forma de explicar las cosas, das motivos, aún así sigo opinando que no todos quieren gastar tanto dinero en un solo producto, pero vamos está claro que la calidad hay que pagarla.

Yo personalmente pase de la 560Ti por que me salia 50€ mas cara que la 6870, cosa que si tu vida es el ordenador no te importa, pero teniendo tantos vicios y cosas que mantener esos 50€ se hacen mas importantes, y supongo que eso pasará con mucha gente, de ahí lo de calidad/precio.
Entiendo que tu dices que nvidia tiene mejor calidad/precio, y puede ser cierto por supuesto, pero los precios son mas altos aunque la calidad también lo sea proporcionalmente, :)

Y eso que yo no soy el mejor ejemplo que rateo 50€ de gráfica pero luego cojo un Core i5 en vez de un AMD XD
Zippo escribió:
Riwer escribió:No voy a entrar en el debate de si es mejor ATI o Nvidia *tengo en mi habitacion un pc con una ATI HD6870 y otro con una nvidia GTX 560 TI*
Pero si dire una cosa, y es que los drivers de ATI son una peste.
No poder ni configurar el reescalado, ni crear resoluciones personalizadas.... *algo demasiado basico, ya ni entrare en lo demas*
Nvidia a cada actu de driver mejora el rendimiento en muchos juegos, en mi opinion:

Drivers nvidia: todo lo que necesites esta, ademas de que se nota que nvidia se esfuerza en exprimir las graficas sacando todo el rendimiento posible.
Drivers ati: ademas de ser una interfaz poco intuitiva y limitada se limitan a arreglar problemas y centrarse en algun juego estrella, como ambas compañias sacando ahora drivers para battlefield 3,
en los drivers ati parecen versiones beta las versione finales. Que por ejemplo, no puedo conectar con los ultimos drivers un monitor por HDMI o a cada juego a pantalla completa le aparece un borde negro por toda la imagen. Cambias a cable VGA y sin problemas... venga ya.

Y precisamente en estos modelos, una 6870 es mas barata que una GTX560 TI, si, pero una GTX560 TI de stock es mas potente que una version overclokeada de una HD6870.
Hoy en dia la relacion calidad precio no la tiene ati, es segun la gama, y en la gama medio alta gana indiscutiblemente la GTX 560 TI en relacion calidad/precio.


Repito, págala tú, la 560ti cuesta más que la 6870 y repito, no todo el mundo es programador ni busca tantas opciones de configuración gráficas... lo dije claro al principio, que según el segmento y a quien vaya enfocado el producto gustará mas uno u otro, pero me gusta tu forma de explicar las cosas, das motivos, aún así sigo opinando que no todos quieren gastar tanto dinero en un solo producto, pero vamos está claro que la calidad hay que pagarla.

Yo personalmente pase de la 560Ti por que me salia 50€ mas cara que la 6870, cosa que si tu vida es el ordenador no te importa, pero teniendo tantos vicios y cosas que mantener esos 50€ se hacen mas importantes, y supongo que eso pasará con mucha gente, de ahí lo de calidad/precio.
Entiendo que tu dices que nvidia tiene mejor calidad/precio, y puede ser cierto por supuesto, pero los precios son mas altos aunque la calidad también lo sea proporcionalmente, :)

Y eso que yo no soy el mejor ejemplo que rateo 50€ de gráfica pero luego cojo un Core i5 en vez de un AMD XD


Hombre si tienes razon, pero yo lo decia porque "de forma generica" igual uno se plantearia si esos 50€ les salen rentables entre + potencia y drives o le sobra con lo que tiene por lo que esos 50€ ahora mismo fuera un gasto innecesario. Claro esta que cada uno tiene sus motivos, aunque yo lo "vendo" (por decirlo de alguna manera) como pagar lo menos posible para el maximo tiempo (segun mi opinion claro)
Es decir, al igual que lo barato puede salir caro (comprarse una grafica de 10€ para solo encender el pc, pero que se rompa en el proceso (carisimo), a que te gastes 1.500€ en un pc a piezas pero te dure 12años *gran inversion*.
Podíais dejar de pelearos que si Ati que si nvidia, o hacerlo en otro hilo.
A mi me interesa el tema, se soluciona con este parche la carga de texturas? Porque tal y como está no se puede jugar.
Riwer escribió:Vamos a ver, sabras de sobra que el tema del parche tanto nvidia como crytek han trabajado juntos. Que ha puesto mas nvidia que crytek para el parche? no lo he negado, pero te confundes al decir que es Crytek quien ayuda a nvidia. Es nvidia quien ayuda a Crytek (es simplemente una chorrada, pero por el juego de palabras lo estas explicando mal)
De quien es el juego? de Crytek. Para que sacan el parche? para que no quede SU juego como un cutre port de la version de consolas.

Como si nvida programa el parche entero sin colaboracion de crytek, es nvidia quien esta ayudando a Crytek a que su juego sea mejor, de ahi que diga que antes me creo que el parche ha sido desarrollado por nvidia con instrucciones de Crytek.
Y no, no tiene nada que ver que el CryEngine sea libre con el codigo fuente de Crysis 2. Codigo fuente que obviamente es cerrado.
Y no, si aparece el logo de nvidia no es porque haya participado en el desarrollo del juego, es porque patrocina al juego por diversos acuerdos.

Que si, que habran casos que si, al igual que AMD con otros juegos, pero yo mismo lo he dicho antes, que en el UE haya colaborado nvidia no tiene absolutamente ninguna relacion con el desarrollo de juegos bajo UE. Se compra licencia de UE y punto, Como puede ser el caso de Last Remant o muchisimos otros desarrollados con Unreal engine.
Hay logo de nvidia en Unreal 3? Si, ha participado en el desarrollo del juego? No.
Que haciendo alusion al codigo de Cry Engine y excusando en eso que el codigo de Crysis 2 podria no ser cerrado es tan absurdo como decir que es publico el codigo fuente de Gears of Wars 3. Nada tiene que ver el codigo de programacion de la herramienta con el del juego, que ademas, de donde te sacas tu que el codigo del Cryengine es libre? porque no lo es, sino cualquier empresa le copiaba el codigo y lo modificaba para hacer sus propios motores graficos. Lo que es libre es el SDK del CryEngine.

Y el tema de los enfoques de nvidia y ati muy bonitos, pero no te olvides de que estas hablando desde tus suposiciones personales, no desde la realidad.
"en mi opinion" (cosa que a ti te falto especificar) nvidia hace lo correcto centrandose en el numero de poligonos. (se vera igual de profundo y realista el cloud de FF7 original con el de AC verdad? XD ) Y hablas de que no es lo unico, sera que las ATI tienen filtros que no tienen NVIDIA verdad? por eso hay juegos que si tienes una ATI incluso te hace falta instalarte las physics de nvidia por software.... *en que se especializa ati? enhaber sacado el multigpu antes? multigpu que ya sido superado por la nvidia GTX590?
anda, si va a resultar que nvidia lo tiene todo pero a ATI le faltan cosas. Porque sabras tambien que bastante peña que lo sabe se compra una ATI por ser mas baratas y se pone una nvidia de secundaria por las fisicas. Pero ya ves tu, ya ni hablar del 3D. "mejor multi GPU, mil veces mejores drivers, mil veces mejor soporte 3D, el nvidia physics, etc etc". Pero nada, ATI/AMD ha hecho los movimientos mas inteligentes, sera por eso que a las thirds les interesa colaborar con nvidia en sus proyectos.....
O ahora saltara alguien diciendo que esque nvidia es microsoft y soltara alguna idiotez.

Y que conste que no soy fanboy de nvidia, tengo tanto ATI como nvidia en mis ordenadores personales.


En todo juego que aparece el logo de NVIDIA ésta empresa ha metido mano. En todo engine que aparece el logo de NVIDIA ésta ha metido mano.
Te estás confundiendo completamente si piensas que te estoy atacando. No es así. Pero parece que en este santo foro contestar al mensaje de otro corrigiéndolo es atacarle. Seguid así.

Dicho esto, continuo:
En ningún momento he dicho que el código del CryEngine sea libre. He dicho que te lo ceden, como ocurre con cualquier otro motor gráfico. Y te equivocas al decir que el SDK de Crytek es libre. Nada, absolutamente nada, es libre. No confundas libre con gratis.

Respecto a los enfoques de nvidia y ati no es mi opinión, es que es así. No te sirven para nada 100 millones de polígonos si no eres capaz de almacenar las texturas necesarias para hacer que cobren vida. Pregúntale que le pasa a una NVIDIA gtx580 con 1'5GB de RAM y a una ATI 6970 con 2GB de RAM a altas resoluciones, de 2560x1600 para arriba (varios monitores), o con texturas grandes. También deberías saber que las AMD no están capadas en potencia de cálculo en coma flotante con precisión doble, al contrario que las NVIDIA que tienen un rendimiento de risa. Busca el rendimiento de las AMD en bitmining y compáralo con el de las NVIDIA.

Lo que se ha hecho en Crysis 2 es una aberración, densidad de polígonos de un píxel por polígono en un bloque de hormigón una vez hecho el raster. ¿Diferencia entre DirectX9 y bloque de hormigón super teselado?: cero. Está claro a quién se ha querido beneficiar, a las tarjetas NVIDIA que tienen más hardware dedicado a la teselación. La presentación del parche DirectX11 de Crysis 2 la hizo NVIDIA, no Crytek.

En cuanto a las físicas, poner una tarjeta gráfica adicional para PhysX ralentiza el juego, de hecho no sirve para nada y es una estupidez. Sin embargo NVIDIA ha querido forzar a la gente a utilizar una tarjeta gráfica haciendo el código para CPU normal con x87 cuando hoy día disfrutamos de varias generaciones de SSE en los procesadores Intel y AMD, mucho más rápidas que las x87 de la época del 486.
Mientras se sigan apoyando las API propietarias y cerradas esto no mejorará. Claro que si estáis cómodos con la situación actual pues bueno.

no todo el mundo es programador ni busca tantas opciones de configuración gráficas

Joder, no hace falta ser programador para cambiar resolución y calidad gráfica. Prefiero ver el juego como yo quiera a seguir la calidad de imagen dictada por el equipo de turno y que no se adapta correctamente a las necesidades de mi sistema. Me río de la autodetección de hardware. Si quiero apurar más el hardware de mi equipo quiero poder hacerlo. Claro está que de esta forma los desarrolladores trabajan menos y se ahorran bugs estúpidos por dejadez como los que hay en el Serious Sam remasterizado.
Con libre no me referia a gratis, me referia a que el SDK es de libre acceso. Podria tener cualquier licencia que progiera la autoria de Crytek (que supongo que la tendra).
De todas formas si yo soy el primero en decir tambien que Crysis2 esta mal optimizado, y metro 2033 todavia peor.

Lo de la RAM es totalmente cierto, de hecho las compañias ajenas a nvidia estan decidiendo cambiar la RAM de las tarjetas por su cuenta, por ejemplo, la GTX 560 TI de nvidia es una tarjeta de 1GB como practicamente el 95% de las tarjetas de nvidia de gama media y medio alta.

Pero aqui por ejemplo una GTX 560 TI de 2 gb: http://www.pixmania.com/es/es/8932339/a ... srcid=1749

Tambien hay una GTX 560 TI de 4GB, aunque en ese caso usaron memoria DDR3 en vez de DDR5.
Aunque de todas formas las GTX590 ya son de 3GB. Pero realmente 3GB o 4GB (590 y 6990) solo se va a usar de verdad en multimonitor, y sin que nadie se sienta ofendido eso es un poco frikada.
Veo mas util tener un monitor de 35 pulgadas full HD (mantiendo la misma resolucion de 1920x1080) que poner varios monitores para tener 5000 pixeles de ancho, si la distancia de la persona con la pantalla es suficiente no se aprecia una disminucion de calidad.
Para un solo monitor con 1.5GB 2GB es mas que suficiente.

Para mi la solucion si seria el monopolio en graficas, pero no porque ganara una, sino porque se fusionaran. Seria lo mejor para los desarrolladores de juegos, para la optimizacion de estos, e incluso para los drivers graficos. Seria centrarse en un solo camino y explotarlo.
Riwer escribió:Con libre no me referia a gratis, me referia a que el SDK es de libre acceso. Podria tener cualquier licencia que progiera la autoria de Crytek (que supongo que la tendra).
De todas formas si yo soy el primero en decir tambien que Crysis2 esta mal optimizado, y metro 2033 todavia peor.

Lo de la RAM es totalmente cierto, de hecho las compañias ajenas a nvidia estan decidiendo cambiar la RAM de las tarjetas por su cuenta, por ejemplo, la GTX 560 TI de nvidia es una tarjeta de 1GB como practicamente el 95% de las tarjetas de nvidia de gama media y medio alta.

Pero aqui por ejemplo una GTX 560 TI de 2 gb: http://www.pixmania.com/es/es/8932339/a ... srcid=1749

Tambien hay una GTX 560 TI de 4GB, aunque en ese caso usaron memoria DDR3 en vez de DDR5.
Aunque de todas formas las GTX590 ya son de 3GB. Pero realmente 3GB o 4GB (590 y 6990) solo se va a usar de verdad en multimonitor, y sin que nadie se sienta ofendido eso es un poco frikada.
Veo mas util tener un monitor de 35 pulgadas full HD (mantiendo la misma resolucion de 1920x1080) que poner varios monitores para tener 5000 pixeles de ancho, si la distancia de la persona con la pantalla es suficiente no se aprecia una disminucion de calidad.
Para un solo monitor con 1.5GB 2GB es mas que suficiente.

Para mi la solucion si seria el monopolio en graficas, pero no porque ganara una, sino porque se fusionaran. Seria lo mejor para los desarrolladores de juegos, para la optimizacion de estos, e incluso para los drivers graficos. Seria centrarse en un solo camino y explotarlo.


Cuando se utiliza el SLI o Crossfire estás limitado a la memoria de una sola tarjeta gráfica debido a que el buffer se ha de copiar en la memoria de todas las GPU por lo que la memoria efectiva sigue siendo la de una sola tarjeta gráfica. Únicamente podrías sacar provecho a la memoria de varias GPU en caso de correr programas sobre dichas tarjetas, pero en tema de videojuegos y SLI/Crossfire la memoria real sigue siendo la de una única tarjeta.

Monitores de 2560x1600 ya hacen uso de más de 1'5GB en según que juegos y si utilizas varios monitores para aumentar la inmersión en el juego ya ni te cuento. El problema de Crysis 2 es el parche DirectX11, la versión DirectX9 está muy bien. De momento no hay ni un sólo juego que haya sido programado con DirectX11 en mente. Me temo que no vamos a disfrutar de buenos avances gráficos hasta que no hayan nuevas consolas sobremesa.

Respecto a las gráficas sería muy malo que sólo hubiera un fabricante. Los precios se dispararían o tendríamos productos mediocres. Y teniendo DirectX u OpenGL no hay problemas por tener dos fabricantes de tarjetas gráficas aunque siempre puedas utilizar unos métodos u otros de cada librería de una forma u otra para beneficiar más a un fabricante u otro, eso sin tener en cuenta las optimizaciones que puedan hacer cada uno en sus drivers. En consolas ya existe ese problema al crear los juegos multiplataforma, es más, en ese caso es peor porque no tienen nada que ver Wii, PS3 y Xbox 360 las unas con las otras.
Ahora bien, si propones que ambos fabricantes se unan en esfuerzo y desarrollen una única línea de productos pues eso diría que es un tanto imposible. Lo que sí se podrían poner de acuerdo es en alcanzar ciertas cotas de rendimiento y características hardware para luego en torno a ello ofrecer el software adicional que cada uno crea conveniente, como por ejemplo AMD con el MLAA o NVIDIA con el FXAA, o el ajuste manual del teselado en el caso de AMD y cosas por el estilo. Pero teniendo en cuenta que el modelo que siguen es el mismo que el de Intel vs AMD va a ser que no.
Por cierto...¿los drivers del Catalyst Rage son para 32 o 64 bits? Tengo 64 bits y se me instalan en archivos de programa normal. Pero no da opción en la descarga a elegir.
Han sacado un parche que añade opciones gráficas al menu:

http://store.steampowered.com/news/?appids=9200
budismo_92 escribió:Por cierto...¿los drivers del Catalyst Rage son para 32 o 64 bits? Tengo 64 bits y se me instalan en archivos de programa normal. Pero no da opción en la descarga a elegir.


Serán de los que lo detectan en la descarga o instalación.
63 respuestas
1, 2