Nvidia compite contra Mantle con sus drivers más recientes

Esto lo que demuestra que hacen lo que quieren con el consumidor . Tienen tarjetas capadas por software que cuando les da la ganan rinden un 30 o 40 por ciento mas.
Primero amd que venda con mantle ahora voy yo y saco esto(y me paso mantle por el forro) para vender mas geforces. Van cojiditas de la mano.

Y eso hasta que lleguen las nuevas maxwell, tendran stock o algo con las antiguas(no me extraña con los precios que ponen y la crisis).

Salu2
Ayer estuve probando el driver... Y la verdad que el metro 2033 funciona por ejemplo a mas de 60fps con todo al tope. Ire viendo mas juegos...
Una cosa que no me ha gustado, peta bastante el gamestream para la shield, se me queda congelado steam con estos nuevos drivers al pasar a big play mode... A ver si lo solucionan.
se nota bastante la mejora , he estado probando varios juegos y joder hay un aumento de fps brutal yo tengo un i7 3770K a 4.4Ghz y una gtx titan a 1.150Mhz... lo que me jode de esto es que hasta el momento las graficas estaban capadas por software...por que no lo hicieron antes? por que mientras AMD o Microsoft no movieran ficha a ellos les interesaba vender mas graficas

PD: solian haber mejoras pero no como la de este driver

salu2
evangelion_01 escribió:
Darkcaptain escribió:Si, puede que NVIDIA se flipe un poco con el precio, pero es que sus drivers siempre me ha parecido bastante mejores y mas pulidos... al final creo que acaba saliendo rentable..

Si dejé un poco de lado el mundo PC Gamer es por esto mismo, gráficas cada 2 x 3 y la mayoría de ellas mueren sin estar todavía explotadas, todo por tema de drivers, software y optimización. Una gráfica de 200-250€ (actualmente) podría durar 5-6 años perfectamente a un buen detalle si se lo currarán, pero claro, los fabricantes de GPU viven de vender gráficas y no les saldría rentable.

El día que las GPU las optimicen como deben, volveré a ese mundillo, pero hasta entonces paso de cambiar de gráfica cada 2-3 años o de gastarme 400-500€ en una para que me dure lo que debería de durar (5-6 años) a un buen detalle/resolución/Frames.


Joder, pues a mi una GTX 285 me petó hace menos de un año, me costó algo menos de 200€ en su dia, en total creo que cumplió más de 5 años... Me la he cambiado por una 660, costandome casi lo mismo y estoy que lo flipo. Yo de momento ninguna queja con Nvidia aunque me mosquea eso que ha salido antes acerca de un driver que petaba tarjetas, la mía petó en julio del año pasado.

Edit: Mentira, creo que la 285 me costó alrededor de 300€, aun así creo que le he sacado mucho partido, lo he podido jugar todo con bastante calidad hasta que se me murió.


Si, pero verás, te has gastado recientemente casi 200€ por una 660... y cuanto te va a durar dando un buen rendimiento? no mas de 2-3 años.. a eso es lo que me refiero, si compras gama media, no pasa de los 2 años o 2 años y pico.. si compras gama alta, te dura bastante mas, si, pero es que se van a los 400€.

Realmente, si optimizaran los drivers al máximo, os sorprendería a mas de uno lo que es capaz de hacer hoy en día una gráfica de 200€... si no por que creéis que las consolas "rinden tanto"? una X360 que es del 2005, moviendo Bioshock Infinite, Tomb Raider, Gears of war 3 etc... vale, no en detalle ultra ni a 1080p, pero al menos lo mueve a un detalle mas o menos decente, coge una gráfica del 2005 a ver si incluso llega a arrancar, es a eso a lo que me refiero, optimización y por eso jamás me gastaré un pastonazo en GPU's.

Y sorry por el comentario un poco offtopic, pero al fin y al cabo la noticia va un poco de eso, optimizar y mejorar drivers para que la GPU rindan mas.

Igualmente, NVIDIA vive de gráficas y puede sacar Drivers para mejorar el rendimiento de sus GPU's, pero si lo ha hecho es por el tema del Mantle... así que tarde o temprano, GPU nuevas al mercado y esto no ha pasado xD
emipta escribió:
jerrymh escribió:Claro que si, otro ejemplo es en sus inicios starcraft II, se cargo muchas graficas hacia trabajar al tope las graficas y tronaban,



amigo mío eso que dices es falso, el Starcraft tira de cpu principalmente, la gráfica la usa mucho menos que otros juegos, informate antes de hablar!


jerrymh tiene razón, sc2 inicialmente quemaba gráficas como un condenado no por el juego en si, si no porque estaban mal programados los menús, digamos que en los menús las gráficas funcionaban como si tuvieran que renderizar un crysis y acababan quemándose. Fue un escándalo muy sonado, había que tocar archivos de configuración para evitar el problema hasta que blizzard lo arregló... Así que estaba bien informado. ;)
Yo creo que a quedado claro que su negocio es vender hardware y a la optimización del software que le den.A tenido que venir Ati con Mantle para que se pongan las pilas Microsft y Nvidia.

Que esto no lo an podido hacer mucho antes...No me jodas.
Mi pregunta es, ¿y por qué no se hacían los drivers óptimos desde un principio?...Claro ejemplo de que en PC se desperdicia mucho con la política del "se puede actualizar". O sea cuando menos potentes eran y encima menos se optimizaban las cosas.

3Dfx como se te echa de menos, por lo menos tú optimizabas.
Pero vamos, si optimizo mis drivers para X juegos, toco algo de directx y te pongo esos X juegos para que veas la mejora en fps, me parece el timo de la estampita...
Lo que me parece una burrada es lo de ATI, sacar una API única y exclusivamente para una pequeña linea de tarjetas... Dando problemas a todo el mundo, desarrolladores, gente y a ellos mismos, con la única idea de hacer marketing malo.
NVIDIA es más caro si, pero también lo es BMW respecto a SEAT.

emipta escribió:
jerrymh escribió:
EmilioGT escribió: [mad] primera vez que oigo esto.¿unos driver se pueden cargar la grafica? o te refieres a rendimiento mucho peor que los anteriores driver?
mola que se piquen [chulito] en optimizar y subir los fps,esto hara que dure mas nuestra gpu. [sonrisa]


Claro que si, otro ejemplo es en sus inicios starcraft II, se cargo muchas graficas hacia trabajar al tope las graficas y tronaban,



amigo mío eso que dices es falso, el Starcraft tira de cpu principalmente, la gráfica la usa mucho menos que otros juegos, informate antes de hablar!


Qué mas da de lo que tire el Starcraft, como si tira de televisión. Te está diciendo que por un error de programación en el juego quemaba las gráficas, y esto es cierto, porque recuerdo perfectamente las noticias.
al final supongo que aprenderan cada vez mas a mover muchos graficos (sofware) por poca potencia(hardware)
pero no se yo si eso afectaria al mercado
EduAAA escribió:Pro-mantles llamando vende humo al nuevo driver... Diganme si no es ironico


+1



Mantle es una basura.
Lo que tenia que hacer ATI es, junto con nvidia, y junto con todos los montadores de placas nvidia+ati es ponerse de acuerdo entre ellos para trabajar juntos en una API grafica multiplataforma. Ya sea openGL o ya sea otra nueva pensada desde cero. Pero juntos. Lo ideal seria que se involucrase tambien microsoft, para todos juntos crear un estandar y evolucionarlo.
Es que no tiene sentido que cada uno este trabajando en lo mismo pero por caminos diferentes, y que luego segreguen el mercado por incompatibilidades entre ellos... es absurdo, y el mas puteado es el usuario final.

Lo que ha hecho AMD con mantle es una guarrada total para el usuario final, y para la industria, que lo unico que consigue es poner trabas al desarrollo.
m0wly escribió:
EduAAA escribió:Pro-mantles llamando vende humo al nuevo driver... Diganme si no es ironico


+1



Mantle es una basura.
Lo que tenia que hacer ATI es, junto con nvidia, y junto con todos los montadores de placas nvidia+ati es ponerse de acuerdo entre ellos para trabajar juntos en una API grafica multiplataforma. Ya sea openGL o ya sea otra nueva pensada desde cero. Pero juntos. Lo ideal seria que se involucrase tambien microsoft, para todos juntos crear un estandar y evolucionarlo.
Es que no tiene sentido que cada uno este trabajando en lo mismo pero por caminos diferentes, y que luego segreguen el mercado por incompatibilidades entre ellos... es absurdo, y el mas puteado es el usuario final.

Lo que ha hecho AMD con mantle es una guarrada total para el usuario final, y para la industria, que lo unico que consigue es poner trabas al desarrollo.


Pues del mismo modo Microsft y Nvidia podrían usar Mantle ya que fue la primera que hizo uso de la gpu a bajo nivel,y así mejorar esa Api.Te recuerdo la api esta abierta a que la usen otras compañías,aun que también es cierto que aun no se encuentra disponible las herramientas de desarrollo.Y que esto puede lastrar su uso o popularidad.

Pero por todos es bien sabido que nunca se hará uso de una api universal que no sea opengl ya que cada uno barre para su casa.
Eso de que compite está cogido con pinzas. Me parece ridícula la comparativa que han hecho, pero bueno, que mejoren su rendimiento es algo bueno en cualquier caso.
turok escribió:
m0wly escribió:
EduAAA escribió:Pro-mantles llamando vende humo al nuevo driver... Diganme si no es ironico


+1



Mantle es una basura.
Lo que tenia que hacer ATI es, junto con nvidia, y junto con todos los montadores de placas nvidia+ati es ponerse de acuerdo entre ellos para trabajar juntos en una API grafica multiplataforma. Ya sea openGL o ya sea otra nueva pensada desde cero. Pero juntos. Lo ideal seria que se involucrase tambien microsoft, para todos juntos crear un estandar y evolucionarlo.
Es que no tiene sentido que cada uno este trabajando en lo mismo pero por caminos diferentes, y que luego segreguen el mercado por incompatibilidades entre ellos... es absurdo, y el mas puteado es el usuario final.

Lo que ha hecho AMD con mantle es una guarrada total para el usuario final, y para la industria, que lo unico que consigue es poner trabas al desarrollo.


Pues del mismo modo Microsft y Nvidia podrían usar Mantle ya que fue la primera que hizo uso de la gpu a bajo nivel,y así mejorar esa Api.Te recuerdo la api esta abierta a que la usen otras compañías.



No, lo normal seria seguir con openGL que lleva un monton de tiempo en el mercado, y es compatible con todo lo que hay en el mercado, y no es dependiente de ninguna compañia.
Y no la guarrada que esta intentando hacer ATI con Mantle, que lo unico que tratan es de segregar el mercado.
Lo logico es que ATI hubiese empezado a trabajar en el desarrollo de openGL que no esta ligado a ninguna compañia... vamos, basicamente lo que ha empezado a hacer NVIDIA junto con VALVE, poner ingenieros en comun para mejorar el desarrollo de openGL. Pero no.
Lo de ATI con mantle es una guarrada.

El 21 de septiembre de 2006 se anunció que el control de OpenGL pasaría del ARB al Grupo Khronos.3 Con ello se intentaba mejorar el marketing de OpenGL y eliminar las barreras entre el desarrollo de OpenGL y OpenGL ES.4 ARB se convirtió dentro de Khronos en el OpenGL ARB Working Group.5 El subgrupo de Khronos que gestiona la especificación de OpenGL se denomina OpenGL ARB Working Group.6 Para una relación de los miembros que componen el OpenGL ARB Working Group, véase el apartado Miembros del Grupo Khronos. El gran número de empresas con variados intereses que han pasado tanto por el antiguo ARB como por el grupo actual han hecho de OpenGL una API de propósito general con un amplio rango de posibilidades.


La especificación OpenGL era revisada por el OpenGL Architecture Review Board (ARB), fundado en 1992. El ARB estaba formado por un conjunto de empresas interesadas en la creación de una API consistente y ampliamente disponible. Microsoft, uno de los miembros fundadores, abandonó el proyecto en 2003.


El 21 de septiembre de 2006 se anunció que el control de OpenGL pasaría del ARB al Grupo Khronos.


El Khronos Group es un consorcio industrial financiado por sus miembros enfocado a la creación de APIs estándares abiertas y libres de royalties que permiten la creación y reproducción multimedia en un amplio abanico de plataformas y dispositivos. Todos los miembros de Khronos pueden contribuir al desarrollo de las especificaciones de las APIs, tienen el poder de votar en diversas etapas antes de la publicación de las mismas, y pueden acelerar la llegada de sus plataformas y aplicaciones 3D gracias al acceso temprano a los bocetos de las especificaciones y a los tests de conformidad.


algunos de los miembros del Grupo Khronos son:

AMD
Apple
Blizzard
Intel Graphics Controllers
nVIDIA




Sobre lo de que mantle es la primera API que da soporte a bajo nivel [+risas]

OpenGL 2.0 añadió soporte para un lenguaje ensamblador basado en GPU verdadero, llamado ARB (diseñado por el Architecture Review Board), que se convertiría en el estándar para vertex y fragment shaders. Las tarjetas publicadas con OpenGL 2.0 fueron las primeras en ofrecer shaders programables por el usuario.
Pues visto los comentarios voy a instalar los nuevos Drivers a ver si noto esa mejoría :) (que con el monitor 1440p la 680 se me está quedando algo corta en según que juegos XD )


Salu2
Lo que tiene cojones es que AMD saque una nueva api para asi mejorar el rendimiento de sus apus (incluidas las que tiene montadas en las dos consolas) y de repente a Microsoft se sienta ofendida, cuando no habia mejorado los directx en años y a nvidia le de por mejorar el rendimiento de sus graficas mediante drivers, ya que Nvidia de repente se ha puesto nerviosa de que con Mantle pierda la ventaja que tenia frente a amd en graficas al controlar mediante las suya el tema de las fisicas.
No puedo estar mas de acuerdo Silfredo, todos (incluido nvidia fanboys) tenemos que estar agradecidos a AMD. Si es que no hay mas ciego, que el que no quiere ver.

Un saludo.
m0wly escribió:No, lo normal seria seguir con openGL que lleva un monton de tiempo en el mercado, y es compatible con todo lo que hay en el mercado, y no es dependiente de ninguna compañia.
Y no la guarrada que esta intentando hacer ATI con Mantle, que lo unico que tratan es de segregar el mercado.
Lo logico es que ATI hubiese empezado a trabajar en el desarrollo de openGL que no esta ligado a ninguna compañia... vamos, basicamente lo que ha empezado a hacer NVIDIA junto con VALVE, poner ingenieros en comun para mejorar el desarrollo de openGL. Pero no.
Lo de ATI con mantle es una guarrada.

Estoy de acuerdo con lo de seguir el camino común del OpenGL. Me parece bastante superior al DirectX.

En lo que no estoy contigo es con lo de que es una guarrada lo que ha hecho AMD con Mantle. Por lo menos ellos lo ponen a disposición para que lo utilice cualquiera. Lo de Nvidia con su PhysX si que es una autentica guarrada :-|

Saludos!
djyuyo escribió:
m0wly escribió:No, lo normal seria seguir con openGL que lleva un monton de tiempo en el mercado, y es compatible con todo lo que hay en el mercado, y no es dependiente de ninguna compañia.
Y no la guarrada que esta intentando hacer ATI con Mantle, que lo unico que tratan es de segregar el mercado.
Lo logico es que ATI hubiese empezado a trabajar en el desarrollo de openGL que no esta ligado a ninguna compañia... vamos, basicamente lo que ha empezado a hacer NVIDIA junto con VALVE, poner ingenieros en comun para mejorar el desarrollo de openGL. Pero no.
Lo de ATI con mantle es una guarrada.

Estoy de acuerdo con lo de seguir el camino común del OpenGL. Me parece bastante superior al DirectX.

En lo que no estoy contigo es con lo de que es una guarrada lo que ha hecho AMD con Mantle. Por lo menos ellos lo ponen a disposición para que lo utilice cualquiera. Lo de Nvidia con su PhysX si que es una autentica guarrada :-|

Saludos!



Si bueno, mas guarrada es aun que microsoft se largase del consorcio de openGL y desarrollase por su cuenta y riesto directx segregando el mercado muchisimo mas.

Pero estabamos hablando de mantle xD
El hecho de que lo ponga a disposicion de todo el mundo no quita que sea un metodo mas de segregacion del mercado. Si en vez de hacer mantle, hubiesen aprovechado esos recursos para openGL el resultado de rendimiento abria sido el mismo, o incluso superior... la diferencia es que en vez de hacer promocion y marketing de la marca ATI-AMD, la gloria se la hubiese llevado la comunidad en si, es decir openGL.

Aqui todo va de intereses economicos y marketing. Lo que ha hecho ATI con Mantle es una guarrada.
Esta gentuza de las multinacionales AUN no se han dado cuenta de que, mas alla del marketing, mucho mas alla del marketing, lo que mas dinero les hace ganar, con diferencia, con mucha diferencia, es el ganarse la confianza y el visto bueno de los usuarions/clientes.
No se trata de engañar a base de marketing, se trata de fidelizar clientes y generar confianza.
Si en vez de desarrollar mantle, hubiesen invertido en empujar y desarrollar openGL abrian generado muchisima mas confianza entre sus posibles clientes y sus actuales clientes, que no con la guarrada que se han sacado de la manga. Y logicamente abrian generado mucho menos marketing.
Pero ellos sabran que es lo que buscan... marketing o confianza de la comunidad.
Oño por una vez le tengo que dar la razon al mowly, espero no sentar precedente. Si hubiesen mejorado Opengl o directx hubiesen quedado mejor que no como lo estan haciendo .Son todas unas chupopteras estas empresas evidentemente de algo tienen que vivir.
Yo sigo diciendo que van todos cogiditos de la mano para estrujar al consumidor, cada uno con diferentes politicas ya sea AMEDEN o ENVIDIA o MOCOSOFT. Tarjetas top a 600 leuros o mas como si fueran un pc completo, sabiendo que todos queremos ver los juegos lo mejor posible, directx compatibles con el S.O que ha mi me de la gana etc etc.

Lo del Starcraft2 el tema es el siguiente, que no tenian un limite de fps para el menu del juego, con lo que las tarjetas se ponian al maximo en el menu, y claro si las dejabas horas pues sufrian, se quemarian las que no estuviesen bien ventiladas me imagino o tuviesen algun probelma, pero como si las dejas con el afterburner o cualquier otro software que estrese la grafica. Pero se esta convirtiendo en un mythbuster parece, el SC2 quemaba las tarjetas.....




Salu2
shenmue está baneado por "troll"
destroyerjjbg escribió:Esto lo que demuestra que hacen lo que quieren con el consumidor . Tienen tarjetas capadas por software que cuando les da la ganan rinden un 30 o 40 por ciento mas.
Primero amd que venda con mantle ahora voy yo y saco esto(y me paso mantle por el forro) para vender mas geforces. Van cojiditas de la mano.

Y eso hasta que lleguen las nuevas maxwell, tendran stock o algo con las antiguas(no me extraña con los precios que ponen y la crisis).

Salu2

Claro, es mejor venderte una tarjeta cada 3-4 años que optimizarlas por software, solo hay que ver el rendimiento que le sacan las consolas a tarjetas gráficas que hacen llorar de lo malas que son. Y es lo que dices, por mucha rivalidad que haya, es un mercado con dos empresas solamente, al final pactarán lo que tengan que pactar porque les beneficia a las dos.
Con todos mis respetos pero nvidia esta vendiendo humo y eso que tengo una gtx 7xx. Pero mostrar unas graficas para indicar que los ultimos drivers de nvidia son mejor que mantle es absurdo. Con un señor cpu 3960X que no crea cuellos de botella y por lo tanto mantle pinta mas bien poco. Estaria bien con un i3 o un fx antiguo.
Bandb está baneado por "Clon de usuario baneado"
no entiendo lo de los super pcs carisimos gamers.
tengo 4 gigas de ram y un intel dual core a 3,20 ghz con un HD de 1 tera y grafica chustera gforce 510, todo sobre w7 y el battlefield 4 me anda de puta madre, no todo a full pero a calidad similar a ps4.
Titanfall me corre perfectamente y ayer mismo probé ninja gaiden z yabuza y a FULL me anda sin despeinarse , sin tirones ni nada.
y ya veis que mi pc es chustero pa juegos.
A veces la peña se gasta miles de euros por correr un battlefield a maxima resolucion y con tdos los filtros posibles y con todos los efectos y particulas .... cuando muchas veces bajando 3 requisitos de estos lo juegas igual y ni te das cuenta de que no salen las particulas de polvo en el mapa x ....
Bandb escribió:no entiendo lo de los super pcs carisimos gamers.
tengo 4 gigas de ram y un intel dual core a 3,20 ghz con un HD de 1 tera y grafica chustera gforce 510, todo sobre w7 y el battlefield 4 me anda de puta madre, no todo a full pero a calidad similar a ps4.
Titanfall me corre perfectamente y ayer mismo probé ninja gaiden z yabuza y a FULL me anda sin despeinarse , sin tirones ni nada.
y ya veis que mi pc es chustero pa juegos.
A veces la peña se gasta miles de euros por correr un battlefield a maxima resolucion y con tdos los filtros posibles y con todos los efectos y particulas .... cuando muchas veces bajando 3 requisitos de estos lo juegas igual y ni te das cuenta de que no salen las particulas de polvo en el mapa x ....


Te das cuenta cuando estas acostumbrado a verlas, y las quitas.
Entonces es cuando realmente te das cuenta.

Tu argumento es el mismo que:
Con lo bien que veo yo mi pantalla de 16" a 1280X720!!! si no se nota la diferencia con una de 19" a 1440, o con una de 23" a 1920!!!
No, apenas se nota.

Pero tu juega un par de dias a 1920x1080 en 23" y luego vuelve a 1280x720 a 16" y luego me cuentas.

Con el tema de filtros exactamente lo mismo... se nota una barbaridad.

Yo en la oficina tambien puedo jugar al d3 o al path of exile sin problema, y eso que el PC de la oficina por no tener no tiene ni grafica, que la lleva integrada en la placa... es una chusta de la virgen. Pero tiran los juegos, y puedo jugar, y no veas lo bien que juego... eso si, con todos los filtros desactivados, al minimo de resolucion...
eso si, cuando llego a casa y sigo jugando a lo mismo, madre mia... parecen juegos totalmente diferentes.
Hay gente que parece que no sabe como funciona el mundo... AMD con Mantle ha hecho lo que ha querido en todos los aspectos, cosa que con OpenGL o DirectX no habría podido porque las decisiones también dependen de terceros. Además cualquier mejora en OpenGL o DirectX podría beneficiar indirectamente a la competencia también, con lo que si tus pretensiones son recortar diferencia con la competencia no parece la manera más adecuada. Por eso han hecho Mantle para tener un aliciente más, de cara a la competencia, para el usuario... ¿o no hay gente que busca gráficas con CUDA para que su juego/programa rinda más o mejor?. Además dando juego al desarrollador con acceso de bajo nivel al hardware, cosa que no debe ser tan mala cuando DirectX 12 y OpenGL 5 seguirán la misma tendencia.
Entiendo que algunos lo vean como humo porque sus PCs son tope de gama y ahí Mantle ni pincha ni corta, pero para el 95% de gente que tiene PC con una simple gráfica puede seguir jugando "decentemente" y estirar aun más tiempo la durabilidad de su PC "antiguo". Por eso la "comparativa" de la noticia es cuanto menos tendenciosa y poco objetiva, como casi todo lo que hace una empresa privada con la competencia.
Los que se preguntan: ¿Por qué no lo han hecho antes? Muy simple, porque no había necesidad de cara a la competencia y porque cuesta tiempo y recursos optimizar cada juego que sale al mercado, lo que viene a ser que cuesta DINERO. ¡Ay! Almas de cántaros... [fumeta]

Salu2.
Lo interesante a mi con mi gtx770 OC y mi i5 2500K a 4GHz me vaa mejorar el rendimiento o al final voy a continuar como estaba? Lo digo para instalar los drivers o esperarme.
melovampire escribió:Lo interesante a mi con mi gtx770 OC y mi i5 2500K a 4GHz me vaa mejorar el rendimiento o al final voy a continuar como estaba? Lo digo para instalar los drivers o esperarme.


Pues vistas las pruebas debería mejorarte el rendimiento, yo los he instalado y estoy contentísimo con ellos :)

Tengo una 680 y he probado a poner el BF4 con todo en Ultra + 2xMSAA + HBAO a 2560x1440 y he obtenido una media de 40fps, con alguna bajada a 30 y algo y subidas a 50 ( y eso que estaba grabando con el ShadowPlay, por lo que sin él igual obtenía un par de fps más XD).


Salu2
AMD lha provocado algo muy positivo q con el lanzamiento de su api Mantle es forzar la respuesta de microsoft primero y ahora nvidia ya que la verdad nos esta dando muchas alegrías a los usuarios de PC estas ultimas semanas, entre el anuncio de de DX12 y los drivers de nvidia. Ahora Nvidia ha dado un golpe sobre la mesa con este driver dejando un poco en evidencia a amd con el tema de directx 11. Yo creo que el paso natural para no quedarse descolgada es hacer algo parecido para sus gráficas y optimizar su driver para directx 11 a lo nvidia sin olvidar seguir trabajando en Mantle.
Valkyrjur escribió:AMD lha provocado algo muy positivo q con el lanzamiento de su api Mantle es forzar la respuesta de microsoft primero y ahora nvidia ya que la verdad nos esta dando muchas alegrías a los usuarios de PC estas ultimas semanas, entre el anuncio de de DX12 y los drivers de nvidia. Ahora Nvidia ha dado un golpe sobre la mesa con este driver dejando un poco en evidencia a amd con el tema de directx 11. Yo creo que el paso natural para no quedarse descolgada es hacer algo parecido para sus gráficas y optimizar su driver para directx 11 a lo nvidia sin olvidar seguir trabajando en Mantle.

Pues no se yo, no creo que sacar Mantle haya supuesto la respuesta por parte de Microsoft, éstos deben de estar más que enterados de lo que iban a sacar y ya tenían en marcha DirectX 12 para sacar una API "close to the metal", si no, no es de entender la de acuerdos millonarios que hay entre AMD y Microsoft en éste ámbito.

Otra cosa es el caso de Nvidia, que ahí no quito razón en que haya habido una reacción por parte de la compañía para mejorar los drivers y sacar más rendimiento. Pero vamos si atendemos a drivers pulidos y optimización de la arquitectura, Nvidia está muy por delante de AMD, si no, no es comprensible que GPUs sobre el papel, con un rendimiento de computación (los famosos Teraflops) y un ancho de banda con un bus superior a los de Nvidia, quede por detrás en muchas pruebas a igualdad de condiciones y que, para igualar, tenga que subir la frecuencia por encima del GHz, con el consumo que conlleva, para igualar rendimiento.
RaPhaT escribió:Pero vamos, si optimizo mis drivers para X juegos, toco algo de directx y te pongo esos X juegos para que veas la mejora en fps, me parece el timo de la estampita...


Te equivocas, estos drivers no parchean x juegos y ya, la clave esta aqui

* Mejoran la eficiencia de la cpu en juegos DX9, DX10 y DX11 (sobretodo en estos últimos).


Y se han reportado mejoras notables en juegos como Crysis, Grand Theft Auto IV, incluso en el emulador dolphin, vamos que hay mejora en todas las situaciones donde la cpu limita a la grafica, aqui los mas beneficiados son los micros mas flojitos con graficas ''tochas'' y las configuraciones SLI/ triSLI, etc. donde es seguro que en algun momento la cpu te va a limitar, como por ejemplo la fase ''bienvenido a la jungla'' de Crysis 3.
labor está baneado por "Se crea un clon para saltarse un baneo"
es aconsejable entonces actualizar a estos drivers?? aunque sean beta??

es que tengo miedo a que se repita el famoso caso de los drivers quematarjetas...

creeis que notare mejora con gtx 660 Ti 3 gb en castlevania LOS2?? en el cual en los videos me baja a 50 fps
Bandb está baneado por "Clon de usuario baneado"
labor escribió:es aconsejable entonces actualizar a estos drivers?? aunque sean beta??

es que tengo miedo a que se repita el famoso caso de los drivers quematarjetas...

creeis que notare mejora con gtx 660 Ti 3 gb en castlevania LOS2?? en el cual en los videos me baja a 50 fps

yo me espero a la final.
me alegra ver el soporte de nvidia a nuestras tarjetas.
es increible como a cada driver nuevo mejora el rendimiento una barbaridad.
hoy dia con cualquier mierdecilla de pc y una tarjeta nvidia gforce de gama media (de las de 70/100 pavos) puedes correr juegos a mejor calidad que una ps4 o xbox one.
Despues de ver como nvidia actuaba como una novia despechada porque la habian dejado fuera del hardware para consolas, solo puedo decir que les den

Me importa una mierda lo que saquen, ATI a mi me esta dando muy buenos resultados para el dinero que me he gastado en su grafica. La relacion calidad precio no podia haber sido mejor
Aquí uno con una GTX 570 quemada ya. No se si sera por los drivers o casualidad pero actualice ayer y hace 3 horas se me jodió. Mejor no actualizar. Y para nada metiendo caña, jugando al lol.

Mira que para una vez que escribo, es para dar una mala noticia. al menos aviso a los usuarios por si las moscas
No me puse a testear la mejora pero los tengo instalados desde hace unos días y la gráfica va bien xD
Buenas.

Quería saber si alguien que sepa mas que yo me podría responder una duda que tengo.
He leído las notas del nuevo driver (todavía no lo he instalado) y me ha parecido entender que reduce el cuello de botella quitandole carga al procesador, si esto es así, y esta es mi pregunta ¿se supone que cuanto peor sea el procesador mayor sera la diferencia que notaria?

Tengo el equipo de mi firma: procesador e7400 , 4GB Ram y GTX 650 1GB

Leyendo los mensajes de la gente que ya lo ha probado veo que usan procesadores mas potentes que el mio, ¿entonces yo notaria mucha diferencia?

Agredeceria si alguien que supiese me podría responder.
gracias y saludos
hbk505 escribió:Buenas.

Quería saber si alguien que sepa mas que yo me podría responder una duda que tengo.
He leído las notas del nuevo driver (todavía no lo he instalado) y me ha parecido entender que reduce el cuello de botella quitandole carga al procesador, si esto es así, y esta es mi pregunta ¿se supone que cuanto peor sea el procesador mayor sera la diferencia que notaria?

Tengo el equipo de mi firma: procesador e7400 , 4GB Ram y GTX 650 1GB

Leyendo los mensajes de la gente que ya lo ha probado veo que usan procesadores mas potentes que el mio, ¿entonces yo notaria mucha diferencia?

Agredeceria si alguien que supiese me podría responder.
gracias y saludos



Amigo eso solo lo puedes saber tu si lo pruebas, haste unos benchmark antes de cambiar los drivers y luego los instalas para hacerlos nuevamente para ver que pasa. Aunque yo con el crysis 3 tenia un E8400 y me iba como el culo con una GTX670, es cambiar a una Core I7 3770k y va a las mil maravillas con la misma grafica, en teoria el procesador era el cuello de botella, a ver como te funciona a ti al hacer las pruebas.
jerrymh escribió:
hbk505 escribió:Buenas.

Quería saber si alguien que sepa mas que yo me podría responder una duda que tengo.
He leído las notas del nuevo driver (todavía no lo he instalado) y me ha parecido entender que reduce el cuello de botella quitandole carga al procesador, si esto es así, y esta es mi pregunta ¿se supone que cuanto peor sea el procesador mayor sera la diferencia que notaria?

Tengo el equipo de mi firma: procesador e7400 , 4GB Ram y GTX 650 1GB

Leyendo los mensajes de la gente que ya lo ha probado veo que usan procesadores mas potentes que el mio, ¿entonces yo notaria mucha diferencia?

Agredeceria si alguien que supiese me podría responder.
gracias y saludos



Amigo eso solo lo puedes saber tu si lo pruebas, haste unos benchmark antes de cambiar los drivers y luego los instalas para hacerlos nuevamente para ver que pasa. Aunque yo con el crysis 3 tenia un E8400 y me iba como el culo con una GTX670, es cambiar a una Core I7 3770k y va a las mil maravillas con la misma grafica, en teoria el procesador era el cuello de botella, a ver como te funciona a ti al hacer las pruebas.

Gracias por la respuesta.
El caso es que ahora no tengo instalado ningún juego de estos punteros para hacer las pruebas pero bueno si al final los instalo ya comentare haber que tal.

---- EDITO ----

Buenas a todos otra vez.

Pues ya he instalado los nuevos drivers 337.50 Beta y como he dicho antes vengo a contaros mis impresiones con los juegos que he probado, espero que os sea de utilidad.

Mis pruebas han sido con el PC de mi firma.
Mi impresion general es que en mi caso no mejoran mucho la media de FPS (En F1 2013 suben 2fps la media) y en los demas juegos (Company of heroes 1, Port Royale 3 [este sigue llendo igual de mal que antes :-| ], Diablo 3 Reaper of Souls) si acaso se estabilizan un poco los bajones puntuales pero mejorar los maximos poco o nada.
Todo lo que sea optimizar me parece bien, si que igual no he echo las pruebas con los juegos adecuados pero ya probare alguno mas tipo AC4 o alguno otro.

Bueno pues eso es todo, un saludo y si pruebo mas os cuento [oki]

PD: Que se me olvidaba, recomiendo su instalacion aunque sea para que los probeis vosotros mismos ;) , tema temperaturas no me he fijado y fallos del sistema todabia ninguno. XD
Darkcaptain escribió:
evangelion_01 escribió:
Darkcaptain escribió:Si, puede que NVIDIA se flipe un poco con el precio, pero es que sus drivers siempre me ha parecido bastante mejores y mas pulidos... al final creo que acaba saliendo rentable..

Si dejé un poco de lado el mundo PC Gamer es por esto mismo, gráficas cada 2 x 3 y la mayoría de ellas mueren sin estar todavía explotadas, todo por tema de drivers, software y optimización. Una gráfica de 200-250€ (actualmente) podría durar 5-6 años perfectamente a un buen detalle si se lo currarán, pero claro, los fabricantes de GPU viven de vender gráficas y no les saldría rentable.

El día que las GPU las optimicen como deben, volveré a ese mundillo, pero hasta entonces paso de cambiar de gráfica cada 2-3 años o de gastarme 400-500€ en una para que me dure lo que debería de durar (5-6 años) a un buen detalle/resolución/Frames.


Joder, pues a mi una GTX 285 me petó hace menos de un año, me costó algo menos de 200€ en su dia, en total creo que cumplió más de 5 años... Me la he cambiado por una 660, costandome casi lo mismo y estoy que lo flipo. Yo de momento ninguna queja con Nvidia aunque me mosquea eso que ha salido antes acerca de un driver que petaba tarjetas, la mía petó en julio del año pasado.

Edit: Mentira, creo que la 285 me costó alrededor de 300€, aun así creo que le he sacado mucho partido, lo he podido jugar todo con bastante calidad hasta que se me murió.


Si, pero verás, te has gastado recientemente casi 200€ por una 660... y cuanto te va a durar dando un buen rendimiento? no mas de 2-3 años.. a eso es lo que me refiero, si compras gama media, no pasa de los 2 años o 2 años y pico.. si compras gama alta, te dura bastante mas, si, pero es que se van a los 400€.

Realmente, si optimizaran los drivers al máximo, os sorprendería a mas de uno lo que es capaz de hacer hoy en día una gráfica de 200€... si no por que creéis que las consolas "rinden tanto"? una X360 que es del 2005, moviendo Bioshock Infinite, Tomb Raider, Gears of war 3 etc... vale, no en detalle ultra ni a 1080p, pero al menos lo mueve a un detalle mas o menos decente, coge una gráfica del 2005 a ver si incluso llega a arrancar, es a eso a lo que me refiero, optimización y por eso jamás me gastaré un pastonazo en GPU's.

Y sorry por el comentario un poco offtopic, pero al fin y al cabo la noticia va un poco de eso, optimizar y mejorar drivers para que la GPU rindan mas.

Igualmente, NVIDIA vive de gráficas y puede sacar Drivers para mejorar el rendimiento de sus GPU's, pero si lo ha hecho es por el tema del Mantle... así que tarde o temprano, GPU nuevas al mercado y esto no ha pasado xD


Pero si lo que digo es que la última me dio buen rendimiento durante toda su vida que fueron unos 5 años, no he jugado a ningun título por debajo de los 1080p desde entonces y con los detalles al máximo en la mayoria de títulos con exceptiones naturalmente. Que en el fondo es un problema de optimizaciones y drivers lo sabemos todos, pero que se le va a hacer.
Se sabe cuando saldrá la versión final de los drivers?

Tengo por norma no instalar versiones Beta y menos aún en casos tan delicados como los drivers.

Salu2 :cool:
89 respuestas
1, 2