NVIDIA "Turing" Nueva Generacion GTX 16x0/Ti -|- RTX 20x0/Ti -|- SUPER

papatuelo escribió:
shingi- escribió:
terriblePICHON escribió:https://www.youtube.com/watch?v=Gbceq1y70i4

interesante video, compara hasta el dlss en final fantasy xv contra una 1080ti.

Todas las comparaciones las hace con oc y sin el, tanto en una 2080 como en una 1080 ti.....

sacar conclusiones....


las conclusiones ya las sacamos.

No se puede testear nada de lo que propone esta nueva generación (como valor añadido) más que en un entorno controlado de una demo preparada para tal fin.

Fin de la conclusión.



Pero es que además se están viendo comparativas en las que se exalta la diferencia de rendimiento de la nueva generación usando dlss, que es como decir que una gráfica es x veces más potente que otra cuando una mueve una resolución y la otra otra inferior. Para muestra:

Imagen


Si esto es el dlss, por mi se lo pueden ahorrar
Titán_Salvaje_ escribió:2080 Ti fire strike

https://www.3dmark.com/fs/16410369

ese i7 le debe estar haciendo cuello de botella , por que mi 1080 Ti saca 31.000 , bueno ahora con los parches para meltwodn y spectre se queda en 30.500 ya que el resultado en graficos tambien depende del ipc del procesador


Pero ese procesador no es de portatil?
TaLoC escribió:
papatuelo escribió:
shingi- escribió:
las conclusiones ya las sacamos.

No se puede testear nada de lo que propone esta nueva generación (como valor añadido) más que en un entorno controlado de una demo preparada para tal fin.

Fin de la conclusión.



Pero es que además se están viendo comparativas en las que se exalta la diferencia de rendimiento de la nueva generación usando dlss, que es como decir que una gráfica es x veces más potente que otra cuando una mueve una resolución y la otra otra inferior. Para muestra:

Imagen


Si esto es el dlss, por mi se lo pueden ahorrar


El DLSS puede estar bien, pero no es una comparación justa cuando miden frames entre resolución nativa y dlss.

Sería más justo comaparar la resolución nativa a la que una gráfica mueve un juego a 60 frames (el juego exprime la gráfica) y luego usar dlss para obtener los mismo frames y comparar así si el resultado visula es mejor con DLSS.

Pongamos por ejemplo que SoTR lo mueves a 60 frames ultra a 1080p, pues intenta llegar a 4K dlss y compara si el resultado difiere mucho en terminos de calidad o no.
Arertur escribió:
Titán_Salvaje_ escribió:2080 Ti fire strike

https://www.3dmark.com/fs/16410369

ese i7 le debe estar haciendo cuello de botella , por que mi 1080 Ti saca 31.000 , bueno ahora con los parches para meltwodn y spectre se queda en 30.500 ya que el resultado en graficos tambien depende del ipc del procesador


Pero ese procesador no es de portatil?


si , y si me preguntas como a pasado el benchmark ni idea
@TaLoC

Si la cuestión no era si se ve mejor o peor, sino que estaban diciendo que era más potente gracias al dlss y te saca aquí el resultado de una 2080 haciendo 3700 puntos con la tecnología dlss que supuestamente es la polla, y llega una 1080ti sin dlss y te hace 3600 puntos.... Entonces qué pasa aquí, que me quieren seguir contando payasadas estos de Nvidia, lo que no se la gente como después de ver estas cosas defienden todo esto....

En fin...que vamos hacer.... Que se preparen los 1800 pavos para la serie 3000 y encima no a mucho tardar.
papatuelo escribió:

Pero es que además se están viendo comparativas en las que se exalta la diferencia de rendimiento de la nueva generación usando dlss, que es como decir que una gráfica es x veces más potente que otra cuando una mueve una resolución y la otra otra inferior. Para muestra:

Imagen

@terriblePICHON @TaLoC
esa imagen puede estar trucada o ser falsa, o estar a diferentes resoluciones hecho a posta, ademas de que el que supuestamente tiene TAA tiene un sharpen y unos dientacos de sierra brutal [qmparto] mira lo que hace el DLSS

con TAA
Imagen

con DLSS
Imagen

sin AA
Imagen

ahora juzgar vosotros mismos pero con DSLL ademas de verse mejor, se optiene mejor rendimiento [fumando]
(abrirlas en tres pestañas distintas y vais pasando de una pestaña a otra ;) )
Se ha comprobado que el DLSS en movimiento y en determinadas situaciones como en el ffxv hace que se vea mejor que el 4k con taa, debido al suavizado de determinadas sierras.
Las comparativas de fps no son con DLSS que yo sepa.
KnightSparda escribió:Se ha comprobado que el DLSS en movimiento y en determinadas situaciones como en el ffxv hace que se vea mejor que el 4k con taa, debido al suavizado de determinadas sierras.
Las comparativas de fps no son con DLSS que yo sepa.

pero calla que una 1080ti es mejor que una 2080 [facepalm]
PD: que pesado se me esta haciendo la espera de la grafica, el dia que me llegue no me ven el polvo por aqui, estare disfrutando de la nueva serie XD
o tal vez si.... [sati]
¿Se sabe algo de las 2070 de algún ensamblador? ¿cuando salen supuestamente las founders de la 2070?
kikomanco escribió:
KnightSparda escribió:Se ha comprobado que el DLSS en movimiento y en determinadas situaciones como en el ffxv hace que se vea mejor que el 4k con taa, debido al suavizado de determinadas sierras.
Las comparativas de fps no son con DLSS que yo sepa.

pero calla que una 1080ti es mejor que una 2080 [facepalm]
PD: que pesado se me esta haciendo la espera de la grafica, el dia que me llegue no me ven el polvo por aqui, estare disfrutando de la nueva serie XD
o tal vez si.... [sati]

Seguirán echando pestes de la 2080 los poseedores de la 1080ti xD
KnightSparda escribió:
kikomanco escribió:
KnightSparda escribió:Se ha comprobado que el DLSS en movimiento y en determinadas situaciones como en el ffxv hace que se vea mejor que el 4k con taa, debido al suavizado de determinadas sierras.
Las comparativas de fps no son con DLSS que yo sepa.

pero calla que una 1080ti es mejor que una 2080 [facepalm]
PD: que pesado se me esta haciendo la espera de la grafica, el dia que me llegue no me ven el polvo por aqui, estare disfrutando de la nueva serie XD
o tal vez si.... [sati]

Seguirán echando pestes de la 2080 los poseedores de la 1080ti xD

lo tipico, la Nvidia es el deporte nacional en españa por desgracia
Compañeros, creo que hablar del DLSS ahora mismo es una completa tonteria.

No tenemos ni una idea muy clara de cómo va a funcionar o ejecutarse y solo tenemos una demo de un solo juego.

Hasta que no lo veamos en varios creo que no vamos a poder hacernos una idea clara de su resultado.
DaNi_0389 escribió:
MonKdePalo escribió:
KnightSparda escribió:Hay tvs oled por 1200e cogiéndolas a buen precio.

4k? Y de qué tamaño?? Lo pregunto en serio, si puedes poner alguna te lo agradezco :)



Una 55B8 por 1650€

https://www.hiperclick.com/televisores-oled/lg-oled-55b8-55oled-4k-hdr-dolby/


Y que diferencia tiene con respecto a las que le doblan el precio??

Por lo que veo tiene hdr 10 bits, me esta tentado darle a comprar xD.

Un saludo
Aún quedan gráficas en oferta donde la cogi... Aprovechar!
salchichaman_123 escribió:
DaNi_0389 escribió:
MonKdePalo escribió:4k? Y de qué tamaño?? Lo pregunto en serio, si puedes poner alguna te lo agradezco :)



Una 55B8 por 1650€

https://www.hiperclick.com/televisores-oled/lg-oled-55b8-55oled-4k-hdr-dolby/


Y que diferencia tiene con respecto a las que le doblan el precio??

Por lo que veo tiene hdr 10 bits, me esta tentado darle a comprar xD.

Un saludo

y HDR 12 bits (Dolby Vision)
y las que le doblan en precio suele ser por tamaño (65" vs 55") y alguna pijotada sin importancia
@Nephalem89 como unas 87 [qmparto] la verdad que la 1080ti es un cañon pero no creo que el que se compre una gama alta y este dudando por la 1080ti o la 2080 lo tenga tan claro a por cual tirar y eso que la 1080ti a 700€ es un preciazo
@kikomanco

Pues me la voy a comprar, y si va bien de input lag igual compro otra como monitor, aunque para fps no creo que valga.

Edit, na tonteria, sin gsync ni nada para monitor no me vale, a otros quizás si, pero para el salón cae.
salchichaman_123 escribió:@kikomanco

Pues me la voy a comprar, y si va bien de input lag igual compro otra como monitor, aunque para fps no creo que valga.

yo juego a todo incluido FPS y no tiene apenas input lag con el modo juego o modo PC, cuando la tengas pincha el pc ahi y disfruta de la imagen de tu pc como ningun monitor ips te puede dar ;)
@kikomanco

Pero habría que activar vsync=imput lag

Para juegos con mando me da igual, pero para primera persona con ratón ufff, tendría que desactivarlo, ver la imagen entre cortada sería involucionar.
Yo soy de los que piensa que las tvs oled son la leche para multimedia y juego de consola, pero en pc donde este un monitor con 165hz y gsync que se quite lo demás.
Madre mía como tragan los fanboys... cada vez que se dice algo malo sobre la serie nueva, esté fundado o no, es directamente mentira, pero cuando se dice algo bueno automáticamente es verdad y que guay la compra de mi 2080ti. Espero que cuando os lleguen a casa os deis cuenta del error que habéis cometido, aunque nunca lo admitáis en público. Con eso me vale.
anikilador_imperial escribió:Madre mía como tragan los fanboys... cada vez que se dice algo malo sobre la serie nueva, esté fundado o no, es directamente mentira, pero cuando se dice algo bueno automáticamente es verdad y que guay la compra de mi 2080ti. Espero que cuando os lleguen a casa os deis cuenta del error que habéis cometido, aunque nunca lo admitáis en público. Con eso me vale.

Seguro que la gente se arrepiente de haber comprado la mejor y mas avanzada tarjeta gráfica del mercado.
Seguro.
Estarán pensando todos en su casa: joder, ojalá tuviese menos fps y las opciones del ray tracing y DLSS bloqueadas.

Y que conste que yo aun no em he comprado nada y SI TENGO SUERTE me compraré la 2070 para diciembre-enero.
...
Editado por metalgear. Razón: Flame
adriano_99 escribió:
anikilador_imperial escribió:Madre mía como tragan los fanboys... cada vez que se dice algo malo sobre la serie nueva, esté fundado o no, es directamente mentira, pero cuando se dice algo bueno automáticamente es verdad y que guay la compra de mi 2080ti. Espero que cuando os lleguen a casa os deis cuenta del error que habéis cometido, aunque nunca lo admitáis en público. Con eso me vale.

Seguro que la gente se arrepiente de haber comprado la mejor y mas avanzada tarjeta gráfica del mercado.
Seguro.
Estarán pensando todos en su casa: joder, ojalá tuviese menos fps y las opciones del ray tracing y DLSS bloqueadas.

Y que conste que yo aun no em he comprado nada y SI TENGO SUERTE me compraré la 2070 para diciembre-enero.


Bueno se pueden arrepentir de decir "acabo de gastarme 1400€ en algo que apenas noto difernecia alguna con la que ya tenía". Yo estoy viendo las imagenes que colgais y tengo que ir a fijarme a saco para detectar diferencias, ¿en medio del juego?, con todo lo que habéis puesto hasta ahora, no ha habido ni una sola imagen que diga "mira, aquí es donde se nota el cambio".
salchichaman_123 escribió:@kikomanco

Pero habría que activar vsync=imput lag

Para juegos con mando me da igual, pero para primera persona con ratón ufff, tendría que desactivarlo, ver la imagen entre cortada sería involucionar.

A los FPS los juego sin v-sync
raul_sanchez1 escribió:Bueno se pueden arrepentir de decir "acabo de gastarme 1400€ en algo que apenas noto difernecia alguna con la que ya tenía". Yo estoy viendo las imagenes que colgais y tengo que ir a fijarme a saco para detectar diferencias, ¿en medio del juego?, con todo lo que habéis puesto hasta ahora, no ha habido ni una sola imagen que diga "mira, aquí es donde se nota el cambio".


Eso mismo me pasa a mí.

La verdad (sin ironía) es que a veces no sé si soy muy poco detallista y me centro más en jugar, o si realmente no hay taaanta diferencia como la gente comenta.

Evidentemente, no todo el mundo va a estar equivocado, así que debe ser cosa mía [+risas]
anikilador_imperial escribió:Madre mía como tragan los fanboys... cada vez que se dice algo malo sobre la serie nueva, esté fundado o no, es directamente mentira, pero cuando se dice algo bueno automáticamente es verdad y que guay la compra de mi 2080ti. Espero que cuando os lleguen a casa os deis cuenta del error que habéis cometido, aunque nunca lo admitáis en público. Con eso me vale.

Deja que la gente compre inteligentemente.. Yo compre inteligentemente y me compré una 2080 no quiero pagar un precio actual por una generación anterior..
anikilador_imperial escribió:Madre mía como tragan los fanboys... cada vez que se dice algo malo sobre la serie nueva, esté fundado o no, es directamente mentira, pero cuando se dice algo bueno automáticamente es verdad y que guay la compra de mi 2080ti. Espero que cuando os lleguen a casa os deis cuenta del error que habéis cometido, aunque nunca lo admitáis en público. Con eso me vale.


No hombre, es mejor la mierda que te vende amd, como si hubiera alternativas.

@kikomanco sabes que a más fps menos se nota la falta de vsync, independientemente de que el monitor sea de 60hz, a partir de 130fps se hace más soportable.
adriano_99 escribió:
anikilador_imperial escribió:Madre mía como tragan los fanboys... cada vez que se dice algo malo sobre la serie nueva, esté fundado o no, es directamente mentira, pero cuando se dice algo bueno automáticamente es verdad y que guay la compra de mi 2080ti. Espero que cuando os lleguen a casa os deis cuenta del error que habéis cometido, aunque nunca lo admitáis en público. Con eso me vale.

Seguro que la gente se arrepiente de haber comprado la mejor y mas avanzada tarjeta gráfica del mercado.
Seguro.
Estarán pensando todos en su casa: joder, ojalá tuviese menos fps y las opciones del ray tracing y DLSS bloqueadas.

Y que conste que yo aun no em he comprado nada y SI TENGO SUERTE me compraré la 2070 para diciembre-enero.


Comprar no es requisito ninguno para tragar actitudes negativas de una empresa y justificar el desempeño de tecnologías muy verdes(nunca mejor dicho) y con un resultado más que cuestionable. Yo solo lo señalo, algún día lo veréis vosotros. Y si no me da igual, pero lo que se ve y lo que pasa está muy claro.

PD: Por cierto, nadie me rebate ese doble rasero que se tiene en este hilo cuando aparecen ciertas informaciones, en vez de eso se me insulta o se me sale con temas que no tienen nada que ver... debe ser que he dado en el clavo y duele!
anikilador_imperial escribió:
adriano_99 escribió:
anikilador_imperial escribió:Madre mía como tragan los fanboys... cada vez que se dice algo malo sobre la serie nueva, esté fundado o no, es directamente mentira, pero cuando se dice algo bueno automáticamente es verdad y que guay la compra de mi 2080ti. Espero que cuando os lleguen a casa os deis cuenta del error que habéis cometido, aunque nunca lo admitáis en público. Con eso me vale.

Seguro que la gente se arrepiente de haber comprado la mejor y mas avanzada tarjeta gráfica del mercado.
Seguro.
Estarán pensando todos en su casa: joder, ojalá tuviese menos fps y las opciones del ray tracing y DLSS bloqueadas.

Y que conste que yo aun no em he comprado nada y SI TENGO SUERTE me compraré la 2070 para diciembre-enero.


Comprar no es requisito ninguno para tragar actitudes negativas de una empresa y justificar el desempeño de tecnologías muy verdes(nunca mejor dicho) y con un resultado más que cuestionable. Yo solo lo señalo, algún día lo veréis vosotros. Y si no me da igual, pero lo que se ve y lo que pasa está muy claro.

PD: Por cierto, nadie me rebate ese doble rasero que se tiene en este hilo cuando aparecen ciertas informaciones, en vez de eso se me insulta o se me sale con temas que no tienen nada que ver... debe ser que he dado en el clavo y duele!

Yo no critico a nadie por qué se gaste 1000€ en un móvil sea iPhone o sea Samsung Galaxy, yo con mi Xiaomi de 160€ voy servido, pues al igual que eso yo no estoy tragando ninguna actitud negativa cómo tú dices, me la compro por qué me interesa.y ahora mismo es lo más potente que existe en el mundo de la informática a nivel usuario, para mí me vale con lo que da, ya has espuesto tú postura no? Pues nada, si no tienes más argumentos ya sabes dónde está la....
Jajajajajajaja y si dices algo malo , bueno malo no, algo contrastado en benchmark por ejemplo es que tienes envidia porque no puedes tener una jajajajajajajajajajaja vaya tela , en la vida se me ocurriría a mi decir semejante cosa , sin saber o conocer a una persona , que a lo mejor te puede hasta enterrar en dinero , pero aquí no , aquí se etiqueta a la gente muy rápido.

Así va todo como va, en fin que se le va hacer , lo primero que falta es educación, pero mucha.
El nivel es bastante bajo.
Leo nombres comerciales de marcas registradas como es Nvidia escrito de forma correcta y a renglón seguido tengo que tragarme la aberración de cómo escriben el nombre de nuestro país es minúscula cuando es un nombre propio y debe escribirse en mayúscula, España.
Partiendo de esa base pues imáginate que nivelazo se gastan algunos como para que te rebatan.
Yo cada día que leo como profundizan más en las nuevas graficas, que escalan casi perfecto con el nvlink en sli, que en juegos dx 12 funcionan muy bien, que en títulos optimizados para hardware moderno suben como la espuma, me queda claro que ha sido un cambio completo de arquitectura y que después de unos cuantos años, se puede apreciar el cambio a tecnología más moderna
raul_sanchez1 escribió:
adriano_99 escribió:
anikilador_imperial escribió:Madre mía como tragan los fanboys... cada vez que se dice algo malo sobre la serie nueva, esté fundado o no, es directamente mentira, pero cuando se dice algo bueno automáticamente es verdad y que guay la compra de mi 2080ti. Espero que cuando os lleguen a casa os deis cuenta del error que habéis cometido, aunque nunca lo admitáis en público. Con eso me vale.

Seguro que la gente se arrepiente de haber comprado la mejor y mas avanzada tarjeta gráfica del mercado.
Seguro.
Estarán pensando todos en su casa: joder, ojalá tuviese menos fps y las opciones del ray tracing y DLSS bloqueadas.

Y que conste que yo aun no em he comprado nada y SI TENGO SUERTE me compraré la 2070 para diciembre-enero.


Bueno se pueden arrepentir de decir "acabo de gastarme 1400€ en algo que apenas noto difernecia alguna con la que ya tenía". Yo estoy viendo las imagenes que colgais y tengo que ir a fijarme a saco para detectar diferencias, ¿en medio del juego?, con todo lo que habéis puesto hasta ahora, no ha habido ni una sola imagen que diga "mira, aquí es donde se nota el cambio".

Te das cuenta de que la gracia del DLSS es que NO se note la diferencia? Y a cambio ganar rendimiento.

@KnightSparda Esta claro que es una apuesta mas de futuro.
KnightSparda escribió:Yo cada día que leo como profundizan más en las nuevas graficas, que escalan casi perfecto con el nvlink en sli, que en juegos dx 12 funcionan muy bien, que en títulos optimizados para hardware moderno suben como la espuma, me queda claro que ha sido un cambio completo de arquitectura y que después de unos cuantos años, se puede apreciar el cambio a tecnología más moderna
.

Q escalen casi perfecto en DX12 es cosa de DX12.

Puede q me equivoqué, pero si pones una gráfica de ski en DX12 o crossfire creo q el rendimiento será más o menos igual en ambas generaciones.

Lo interesante realmente de esta gen es ver si realmente sacan partido al RTX.
papatuelo escribió:
KnightSparda escribió:Yo cada día que leo como profundizan más en las nuevas graficas, que escalan casi perfecto con el nvlink en sli, que en juegos dx 12 funcionan muy bien, que en títulos optimizados para hardware moderno suben como la espuma, me queda claro que ha sido un cambio completo de arquitectura y que después de unos cuantos años, se puede apreciar el cambio a tecnología más moderna
.

Q escalen casi perfecto en DX12 es cosa de DX12.

Puede q me equivoqué, pero si pones una gráfica de ski en DX12 o crossfire creo q el rendimiento será más o menos igual en ambas generaciones.

Lo interesante realmente de esta gen es ver si realmente sacan partido al RTX.


La arquitectura de la gráfica y lo bien que soporte su hardware la computación asíncrona de dx12 está completamente relacionado con el rendimiento del sli.

adriano_99 escribió:
raul_sanchez1 escribió:
adriano_99 escribió:Seguro que la gente se arrepiente de haber comprado la mejor y mas avanzada tarjeta gráfica del mercado.
Seguro.
Estarán pensando todos en su casa: joder, ojalá tuviese menos fps y las opciones del ray tracing y DLSS bloqueadas.

Y que conste que yo aun no em he comprado nada y SI TENGO SUERTE me compraré la 2070 para diciembre-enero.


Bueno se pueden arrepentir de decir "acabo de gastarme 1400€ en algo que apenas noto difernecia alguna con la que ya tenía". Yo estoy viendo las imagenes que colgais y tengo que ir a fijarme a saco para detectar diferencias, ¿en medio del juego?, con todo lo que habéis puesto hasta ahora, no ha habido ni una sola imagen que diga "mira, aquí es donde se nota el cambio".

Te das cuenta de que la gracia del DLSS es que NO se note la diferencia? Y a cambio ganar rendimiento.

@KnightSparda Esta claro que es una apuesta mas de futuro.


Claro, esa es la idea, que el DLSS de el pego totalmente, cosa que hace, claro para ver la diferencia más mínima, en las comparativas se usa un zoom trmenedo sobre imagenes estáticas, y ahí es donde se puede ver la ligera diferencia, pero en todas las reviews en general de diferentes youtubers, dicen que al menos en la demo del FFXV que es lo más similar a un gameplay que hay ahora mismo, dicen que el resultado es flipante, y que no se nota apenas diferencia con el 4k nativo, incluso mejorandolo en aspectos como el pelo que se suaviza mejor y elimina el efecto de sierra de manera más eficiente que la escala de resolución nativa.
KnightSparda escribió:
papatuelo escribió:
KnightSparda escribió:Yo cada día que leo como profundizan más en las nuevas graficas, que escalan casi perfecto con el nvlink en sli, que en juegos dx 12 funcionan muy bien, que en títulos optimizados para hardware moderno suben como la espuma, me queda claro que ha sido un cambio completo de arquitectura y que después de unos cuantos años, se puede apreciar el cambio a tecnología más moderna
.

Q escalen casi perfecto en DX12 es cosa de DX12.

Puede q me equivoqué, pero si pones una gráfica de ski en DX12 o crossfire creo q el rendimiento será más o menos igual en ambas generaciones.

Lo interesante realmente de esta gen es ver si realmente sacan partido al RTX.


La arquitectura de la gráfica y lo bien que soporte su hardware la computación asíncrona de dx12 está completamente relacionado con el rendimiento del sli.

adriano_99 escribió:
raul_sanchez1 escribió:
Bueno se pueden arrepentir de decir "acabo de gastarme 1400€ en algo que apenas noto difernecia alguna con la que ya tenía". Yo estoy viendo las imagenes que colgais y tengo que ir a fijarme a saco para detectar diferencias, ¿en medio del juego?, con todo lo que habéis puesto hasta ahora, no ha habido ni una sola imagen que diga "mira, aquí es donde se nota el cambio".

Te das cuenta de que la gracia del DLSS es que NO se note la diferencia? Y a cambio ganar rendimiento.

@KnightSparda Esta claro que es una apuesta mas de futuro.


Claro, esa es la idea, que el DLSS de el pego totalmente, cosa que hace, claro para ver la diferencia más mínima, en las comparativas se usa un zoom trmenedo sobre imagenes estáticas, y ahí es donde se puede ver la ligera diferencia, pero en todas las reviews en general de diferentes youtubers, dicen que al menos en la demo del FFXV que es lo más similar a un gameplay que hay ahora mismo, dicen que el resultado es flipante, y que no se nota apenas diferencia con el 4k nativo, incluso mejorandolo en aspectos como el pelo que se suaviza mejor y elimina el efecto de sierra de manera más eficiente que la escala de resolución nativa.


Estoy en el móvil, pero ya te digo q no hay forma más fácil de verlo q buscar el mismo título dx12 con las dos gen en sli y se ve.
Lo mejor sera cuando salga el triple A de turno y tengan rascadas a 30-40-50 fps por la mierda de optimización que tiene y se.tiren de los.pelos por haberse gastado 1400€ para seguir sufriendo lo mismo de siempre.

En pc gastarte lo maximo no te garantiza una mierda.

Y saldran las 3080ti por 2000€ y seguiremos igual.

Cuando salio la 980ti iba a ser la polla consagrada y aunque era la mejor grafica hasta el momento seguiamos sufriendo lo mismo.

Es la misma historia de cada generación.
SECHI escribió:Lo mejor sera cuando salga el triple A de turno y tengan rascadas a 30-40-50 fps por la mierda de optimización que tiene y se.tiren de los.pelos por haberse gastado 1400€ para seguir sufriendo lo mismo de siempre.

En pc gastarte lo maximo no te garantiza una mierda.

Y saldran las 3080ti por 2000€ y seguiremos igual.

Cuando salio la 980ti iba a ser la polla consagrada y aunque era la mejor grafica hasta el momento seguiamos sufriendo lo mismo.

Es la misma historia de cada generación.


Eso o cualquier persona sensata disfrutará de poder jugar la gran mayoría de juegos a 70-80+fps en 4k y los 4 juegos mal optimizados bajarles los assets, y simplemente asumir que están mal optimizados.

Siempre van a existir juegos con determinada opción ridícula que tanquee el rendimiento de manera absurda y con quitarlo te mejore brutalmente el rendimiento.
https://youtu.be/84OkcOYmXOk

Creo que no se ha subido, muestra el nvlink y compara sli 1080ti vs sli 2080ti
adriano_99 escribió:Y que conste que yo aun no em he comprado nada y SI TENGO SUERTE me compraré la 2070 para diciembre-enero.


Ambos tenemos el mismo objetivo compañero (ya me conoces jaja), sol oque yo estoy con la duda de una 1080ti si bajan mas d eprecio, pero maximo me pillo la 2070 dependiendo de los tests de la 2070 cuando se publiquen. Andaran un poco a la par.

@adriano_99
KnightSparda escribió:
papatuelo escribió:
KnightSparda escribió:Yo cada día que leo como profundizan más en las nuevas graficas, que escalan casi perfecto con el nvlink en sli, que en juegos dx 12 funcionan muy bien, que en títulos optimizados para hardware moderno suben como la espuma, me queda claro que ha sido un cambio completo de arquitectura y que después de unos cuantos años, se puede apreciar el cambio a tecnología más moderna
.

Q escalen casi perfecto en DX12 es cosa de DX12.

Puede q me equivoqué, pero si pones una gráfica de ski en DX12 o crossfire creo q el rendimiento será más o menos igual en ambas generaciones.

Lo interesante realmente de esta gen es ver si realmente sacan partido al RTX.


La arquitectura de la gráfica y lo bien que soporte su hardware la computación asíncrona de dx12 está completamente relacionado con el rendimiento del sli.

adriano_99 escribió:
raul_sanchez1 escribió:
Bueno se pueden arrepentir de decir "acabo de gastarme 1400€ en algo que apenas noto difernecia alguna con la que ya tenía". Yo estoy viendo las imagenes que colgais y tengo que ir a fijarme a saco para detectar diferencias, ¿en medio del juego?, con todo lo que habéis puesto hasta ahora, no ha habido ni una sola imagen que diga "mira, aquí es donde se nota el cambio".

Te das cuenta de que la gracia del DLSS es que NO se note la diferencia? Y a cambio ganar rendimiento.

@KnightSparda Esta claro que es una apuesta mas de futuro.


Claro, esa es la idea, que el DLSS de el pego totalmente, cosa que hace, claro para ver la diferencia más mínima, en las comparativas se usa un zoom trmenedo sobre imagenes estáticas, y ahí es donde se puede ver la ligera diferencia, pero en todas las reviews en general de diferentes youtubers, dicen que al menos en la demo del FFXV que es lo más similar a un gameplay que hay ahora mismo, dicen que el resultado es flipante, y que no se nota apenas diferencia con el 4k nativo, incluso mejorandolo en aspectos como el pelo que se suaviza mejor y elimina el efecto de sierra de manera más eficiente que la escala de resolución nativa.


Si miras el video que ha puesto @frikidaguel tienes que bajo DX12 y con NVLink la 2080ti consigue la misma mejo que la 1080ti con sli, como he dicho creo que es más cosa de como funciona DX12

Sniper elite
NVlink= 193%
Sli=196%

Far cry 5:
NVlink= 146%
Sli: 159%

El shadow of the tomb raider no lo pongo xq no sé xq prueban el juego en diferentes condiciones, prueban la 2080ti con AA y en NVlink sin él con lo que obtienen un 213% y en el sli que si lo prueban ambas veces con AA obtienen un 195%

Vamos que DX 12 hace que escalen casi perfecto una pascal en SLI como una nueva gen en NVlink.
polnuman escribió:
adriano_99 escribió:Y que conste que yo aun no em he comprado nada y SI TENGO SUERTE me compraré la 2070 para diciembre-enero.


Ambos tenemos el mismo objetivo compañero (ya me conoces jaja), sol oque yo estoy con la duda de una 1080ti si bajan mas d eprecio, pero maximo me pillo la 2070 dependiendo de los tests de la 2070 cuando se publiquen. Andaran un poco a la par.

@adriano_99

Lo recuerdo xD
Yo después de ver el vídeo de metro exodus con el ray tracing tengo clarisimo que mi próxima tarjeta va a ser si o si turing.
Ya me va a costar el cambio de gráfica así que seguramente pasaré otro año o dos con mi monitor a 2560x1080 60hz así que la simple potencia extra que me da lla 1080ti no me beneficia ni una décima parte que los mejores gráficos en el monitor que ya tengo.
adriano_99 escribió:Lo recuerdo xD
Yo después de ver el vídeo de metro exodus con el ray tracing tengo clarisimo que mi próxima tarjeta va a ser si o si turing.
Ya me va a costar el cambio de gráfica así que seguramente pasaré otro año o dos con mi monitor a 2560x1080 60hz así que la simple potencia extra que me da lla 1080ti no me beneficia ni una décima parte que los mejores gráficos en el monitor que ya tengo.


te entiendo, y me estas haciendo replantear el tema pq estoy obsesionado con l ode la 1080ti, pero claro ahi esta l oque decis todos, la tecnologia, por lo mismo o poco mas tengo ultima generacion aunque tenga 8gb en vez de 11gb, y mas si los juegos no la gastan toda. En m icaso juego aun a 1080p, y necesito cambiar monitor tambien (otros 300€ de presupuesto aprox), y si me voy a una 2070 pues me toca esperar medio año del 2019 aguantandome con mi monitor de ahora, sin disfrutar de 144hz, aaaaaaaaaj.

salu2 @adriano_99
papatuelo escribió:
KnightSparda escribió:
papatuelo escribió:.

Q escalen casi perfecto en DX12 es cosa de DX12.

Puede q me equivoqué, pero si pones una gráfica de ski en DX12 o crossfire creo q el rendimiento será más o menos igual en ambas generaciones.

Lo interesante realmente de esta gen es ver si realmente sacan partido al RTX.


La arquitectura de la gráfica y lo bien que soporte su hardware la computación asíncrona de dx12 está completamente relacionado con el rendimiento del sli.

adriano_99 escribió:Te das cuenta de que la gracia del DLSS es que NO se note la diferencia? Y a cambio ganar rendimiento.

@KnightSparda Esta claro que es una apuesta mas de futuro.


Claro, esa es la idea, que el DLSS de el pego totalmente, cosa que hace, claro para ver la diferencia más mínima, en las comparativas se usa un zoom trmenedo sobre imagenes estáticas, y ahí es donde se puede ver la ligera diferencia, pero en todas las reviews en general de diferentes youtubers, dicen que al menos en la demo del FFXV que es lo más similar a un gameplay que hay ahora mismo, dicen que el resultado es flipante, y que no se nota apenas diferencia con el 4k nativo, incluso mejorandolo en aspectos como el pelo que se suaviza mejor y elimina el efecto de sierra de manera más eficiente que la escala de resolución nativa.


Si miras el video que ha puesto @frikidaguel tienes que bajo DX12 y con NVLink la 2080ti consigue la misma mejo que la 1080ti con sli, como he dicho creo que es más cosa de como funciona DX12

Sniper elite
NVlink= 193%
Sli=196%

Far cry 5:
NVlink= 146%
Sli: 159%

El shadow of the tomb raider no lo pongo xq no sé xq prueban el juego en diferentes condiciones, prueban la 2080ti con AA y en NVlink sin él con lo que obtienen un 213% y en el sli que si lo prueban ambas veces con AA obtienen un 195%

Vamos que DX 12 hace que escalen casi perfecto una pascal en SLI como una nueva gen en NVlink.


Efectivamente la API ha sido lo que más ha favorecido a que el SLI a día de hoy sea una tecnología viable, no como hace unos años. Sin DX12/Vulkan puedes poner todos los NVLink que quieras y los PCIe más grandes del universo, que el SLI no va a escalar.
A mi lo que me realmente me importa es que la semana que viene me llegue ya mi RTX 2080 que me está matando el hype [+risas]

Voy con una 1070, a principios de año estuve a punto de pillarme una 1080TI pero me fue imposible ya que no había stock en ninguna tienda, y la verdad es que ahora me alegro de que haya pasado eso, aunque de rendimiento anden muy parecidas prefiero tener la más actual.
estoy dudando entre la 2080 FE o esperar a que haya alguna EVGA a la venta, que supongo que tendrán mejores temperaturas y traen el power limit al 130%. Se sabe cuándo estarán disponibles en alguna tienda?
La versión XC y la XC ultra ya las tienes disponibles, supongo que a partir del 27 Que es cuando salen oficialmente, ya las tendrás en algunas tiendas.
kikomanco escribió:Yo no critico a nadie por qué se gaste 1000€ en un móvil sea iPhone o sea Samsung Galaxy, yo con mi Xiaomi de 160€ voy servido, pues al igual que eso yo no estoy tragando ninguna actitud negativa cómo tú dices, me la compro por qué me interesa.y ahora mismo es lo más potente que existe en el mundo de la informática a nivel usuario, para mí me vale con lo que da, ya has espuesto tú postura no? Pues nada, si no tienes más argumentos ya sabes dónde está la....


Que alguien gaste 1000€ en un teléfono no hace que gastar 1500€ en una gráfica sea mejor compra.

Dos errores nunca hacen un acierto [oki]
Un bonito artículo para entretenerse mientras esperáis las tarjetas: https://hardzone.es/2018/09/22/ray-trac ... ficas-amd/
11796 respuestas