NVIDIA "Turing" Nueva Generacion GTX 16x0/Ti -|- RTX 20x0/Ti -|- SUPER

deltonin escribió:
alanwake escribió:
deltonin escribió:Mucho RTX, pero los que esperabamos una GTX 2080 nos quedamos chafados!!

La verdad es que podrian sacar una nueva gama una vez que liquiden las GTX 10X0, una gama RTX y otra GTX seria lo mas conveniente.

No habíamos leído por algún lado modelos 2080+??? quizás lo he soñado [qmparto]
Me suena de algo, a ver si son un AS en la manga por si patinan con las RTX, (GTX 2080+ sin RTX) :Ð



Dios te oiga, muchos queremos nueva generacion para RV y 2-4k-144hz, pasando de rayos cosmicos e historias.

Si fuese por algunos seguiríamos con los gráficos del primer doom pero a 16k y 500fps
La burrada que acabas de soltar es bíblica.
Mayban36 escribió:La burrada que acabas de soltar es bíblica.

La burrada bíblica es lo que se lleva leyendo en este hilo desde el lunes de no parar de inventarse nombrecitos para intentar quitarle peso a la mayor mejora en iluminación para los videojuegos desde el primer crysis.
Que algunos parecen niños pequeños cuando no tienen argumentos y se ponen con el riy tricing miñinini.
Tenéis que tener en cuenta que ray tracing es muy independiente del monitor.

Quizás piensan que pueden introducirlo a gente con monitores no 4k o de 60Hz y que en el futuro quizás sea más complejo que la gente renuncie a sus 4k.

Claro que si tienes pasta para tirarla en una gráfica de 1300 pavos. Buen monitor deberías tener.
adriano_99 escribió:
Mayban36 escribió:La burrada que acabas de soltar es bíblica.

La burrada bíblica es lo que se lleva leyendo en este hilo desde el lunes de no parar de inventarse nombrecitos para intentar quitarle peso a la mayor mejora en iluminación para los videojuegos desde el primer crysis.
Que algunos parecen niños pequeños cuando no tienen argumentos y se ponen con el riy tricing miñinini.



Lo que yo no entiendo es como puedes defender a capa y espada el Ray Tracing cuando no se sabe nada más que unas demos que han colocado sin siquiera dar el rendimiento de las gráficas. Yo lo veo un avance decente porque a parte también será compatible con la competencia, lo que sí es que no se va a ver nada interesante hasta dentro de varios años.

Lo de que suban otra vez de precio las gamas(1300 dólares la 2080Ti con dos huevacos) no es puto normal, lo mires por donde lo mires.

Y lo de "Seguiríamos con los gráficos del DOOM a 16K 500fps" es una falacia del hombre de paja de cojones. Por eso la burrada.
La gente se olvidó hace tiempo que la tecnología se amortiza en 4-6 años de su compra y vive en el “lo quiero todo, barato y ya”.

Sí la 2080 ti RTX, lleva RT desactivable, los que esperáis una GTX 2080 ti ya la tenéis. Se llama RTX 2080 ti, desactivando el RT...
adriano_99 escribió:Si fuese por algunos seguiríamos con los gráficos del primer doom pero a 16k y 500fps


+1 Yo lo veo una evolución brutal. Me acuerdo de tiempos pasados usando el POV-Ray y renderizar una escena (1 solo frame) durante minutos, y que queréis que os diga, me parece bestial que una gráfica pueda hacer esto en tiempo real con cierta fidelidad. Luego ya está el tema de los precios, que yo también considero excesivos, pero estoy contento con el camino que ha tomado NVIDIA esta generación.

Y que conste que soy el primer interesado en potencia bruta porque juego al PC en una tele 4k y un monitor 2k@144hz; ya cuento con que en algunos títulos tocará bajar algunos settings o desactivar el RTX.
Mayban36 escribió:
adriano_99 escribió:
Mayban36 escribió:La burrada que acabas de soltar es bíblica.

La burrada bíblica es lo que se lleva leyendo en este hilo desde el lunes de no parar de inventarse nombrecitos para intentar quitarle peso a la mayor mejora en iluminación para los videojuegos desde el primer crysis.
Que algunos parecen niños pequeños cuando no tienen argumentos y se ponen con el riy tricing miñinini.



Lo que yo no entiendo es como puedes defender a capa y espada el Ray Tracing cuando no se sabe nada más que unas demos que han colocado sin siquiera dar el rendimiento de las gráficas. Yo lo veo un avance decente porque a parte también será compatible con la competencia, lo que sí es que no se va a ver nada interesante hasta dentro de varios años.

Lo de que suban otra vez de precio las gamas(1300 dólares la 2080Ti con dos huevacos) no es puto normal, lo mires por donde lo mires.

Y lo de "Seguiríamos con los gráficos del DOOM a 16K 500fps" es una falacia del hombre de paja de cojones. Por eso la burrada.

Ya he explicado varias veces me experiencia trabajando directamente tanto con el ray tracing como con el sistema actual en los juegos y porque es un grandisimo avance que sólo acaba de asomar la patita.
Pero a la gente le da igual, la gente no quiere estar informada la gente quiere seguir echando mierda desde su desconocimiento y poner nombrecitos ridículos a algo que no les gusta.
Y si, el precio es exagerado pero pro desgracia lo hacen porque pueden. Cuando AMD saque algo que compita dejarán de hacerlo.

Todas las mejoras que nos han hecho pasar desde el primer doom hasta donde estamos ( aumentos de poligonaje, iluminación en tiempo real, partículas, etc) TODAS cuando aparecieron hacían bajar un montón el rendimiento.
Crysis y sus memes infinitos son la mayor muestra donde todo lo que se está diciendo ahora del ray tracing se dijo en su momento que el juego iba como el culo a cambio de "unas partículas y rayitos". Pero si en su momento no se hubiesen lanzado aplicando todas esas tecnologías hoy no tendríamos lo que tenemos.
Si todo se resume rápido, comprarse una gráfica de 1300 euros con una tecnología cojonuda para no poder jugar a más de 1080p y 60 fps se ve normal,todo esto con la información que se ve hasta ahora....

Cómo decías antes que ya pasó con las técnicas de antes y que si crisis y tal, pero no nos cobraron 1300 euros....
adriano_99 escribió:
albertoooooooooo escribió:
adriano_99 escribió:Esto me parece un vídeo muy interesante de ver si entiendes el ingles: https://www.youtube.com/watch?v=mLIgfT04wsY
Así a grandes rasgos:
-ray tracing va a super un gran cambio en la industria pero va a venir con un gran coste en forma de perder durante un tiempo los altos rangos de fps, entienden que a alguien que tiene un monitor con alta capacidad de refresco esto no guste
-Se espera que sea una generación bastante mas corta que pascal
-nvidia necesitaba en la presentación por encima de todo que se entendiese que es la nueva tecnologia y porque es necesaria



La verdad es que cada vez me parece mas que nvidia ha tomado el camino mas arriesgado y dificil pudiendo simplemente lanzar lo que parece que todos aquí querían: simplemente mas potencia bruta haciendo lo mismo pero mejor.
Yo personalmente prefiero el cambio pero entiendo que haya mucha gente que no y esté levantando ampollas.


Si la innovación es siempre bienvenida, pero entonces no puedes vender un producto "inacabado" o sin pulir, como si ya estuviera asentada la tecnología en el mercado y funcionase a la perfección. Ahora nos encontramos las dos siguientes casuisticas:
[*]Quiero jugar con RayTracing = Hay gráficas capaces de hacerlo, pero con una calidad de resolución / frames de hace varios años. Total, que pagas la tecnología a precio de oro para jugar como el ojete (Porque me hará gracia ver a gente jugando al online del Battlefield V a 30 fps)
[*]Quiero jugar a 4k@120fps = No se sabe si hay gráficas capaces de hacerlo (ya que no hay benchmarks), pero las que en teoría lo permiten, llevan un sobreprecio escandaloso por el RayTracing, el cual hay que desactivar para poder jugar como toca. Total, que pagas un sobreprecio por una característica que no quieres/necesitas/puedes usar.

Esto me recuerda muchísimo al Kinect de la Xbox One, que te metían con calzador por 100€ más. Y al final, la solución fue quitarlo, porque nadie lo usaba. Para mi, Nvidia debería sacar una GTX 2080ti, sustituyendo esos rt cores por nucleos normales, o simplemente quitar los rt cores. Y por supuesto, a un precio de 900€

No es que estén inacabadas es que ningún producto para early adopters funciona igual que cuando la tecnología está avanzada.
Y obviamente estás en tu derecha de preferir potencia bruta que un avance que tiene sus costes pero esto tiene que pasar si o si.
Nunca llegaremos al fotorealismo sin esto y es imposible meterla de la nada sin perder rendimiento
Por eso aún tienes disponible la 1080ti para simplemente potencia bruta.


Te lo repito, estoy de acuerdo, pero entonces no vendas ese producto a precio de oro. No es que solo quiera potencia bruta, claro que quiero RayTracing, pero si funciona bien. Entonces estoy dispuesto a pagar 1300€. Es como si te vendo un coche electrico por 100.000€ pero solo con una autonomía de 10km y te digo "es que es tecnología nueva, early adopter". Que si, es algo nuevo, pero sácalo cuando pueda cumplir unos mínimos.

karakol escribió:La gente se olvidó hace tiempo que la tecnología se amortiza en 4-6 años de su compra y vive en el “lo quiero todo, barato y ya”.

Sí la 2080 ti RTX, lleva RT desactivable, los que esperáis una GTX 2080 ti ya la tenéis. Se llama RTX 2080 ti, desactivando el RT...


Entonces si tenemos que desactivar el RT, no deberíamos de pagar 1300€ para una gráfica que solo tiene un poquito más de potencia que una 1080ti. Y aunque tuviera mucha más potencia tampoco. Estamos hablando de que el precio de salida es más de 400€ que la generación anterior (1080ti). Y si hablas de amortizarlo en un futuro, si ahora la gráfica no puede con 1080p@45fps con raytracing, cuando dentro de 2 años te saquen el battlefield 6 con más carga gráfica, crees que va a ir mejor? al contrario, irá peor. Se supone que la inversión la haces y que cuando te compras un producto así, te lo va a mover todo al máximo al menos durante un par de años. Estamos hablando de que no puede ni ahora xD.
terriblePICHON escribió:Si todo se resume rápido, comprarse una gráfica de 1300 euros con una tecnología cojonuda para no poder jugar a más de 1080p y 60 fps se ve normal,todo esto con la información que se ve hasta ahora....

Cómo decías antes que ya pasó con las técnicas de antes y que si crisis y tal, pero no nos cobraron 1300 euros....

Las graficas son carisimas pero desde cuando el precio de algo hace que haya que desprestigiar constantemente a la tecnologia que lleva detrás?
Ademas el precio no es sólo por el RTX ( que ojo, digo no solo pero los tensor cores no son baratos de producir) sino que se ha juntado con el stock enorme de la serie 10 y la falta de competencia.
Por desgracia se nos han juntado todos los factores desfavorables posibles.

@albertoooooooooo
Mira el precio que tenían los primeros coches eléctricos y su autonomia.
Caro y con funcionamiento imperfecto.
Y esos e aplica a las primeras teles oled que subían de los 10 mil euros y se quemaban mas que nunca.
O incluso los primeros modelos de cada generación de consolas: los mas caros los que mas se calientan y los que tienen mas porcentaje de rotura.
SIEMPRE SIEMPRE pasa esto.
es eso ahora mismo la tecnologia ray tracing en tiempo real esta verde , pasa con todo sale algo nuevo y hasta que se perfecciona pasan años , algún dia podremos jugar jugar en full ray tracing en tiempo real... sera como mover la pelicula Avatar con tu pc por decirlo de alguna forma
El leer la noticia esta del chapuzas informático acerca de lo de desactivar el raytracing para que la gráfica dé una tasa de frames alta a resoluciones muy altas, para mi un poco confirma lo que me suponía sobre todo esto. Si además de la nueva circuitería para la ia y los rayos los de NVIDIA han sabido evolucionar también los cuda cores, entonces es confirmar que los de NVIDIA a pesar de todo no han sido tan tontos como para descuidar lo que de verdad les da de comer. Estas gráficas serán muy caras, pero se venderán si gracias a ellas alguien va a poder jugar tranquilamente a cualquier cosa en su pedazo de monitor 4k con al menos 60 fps durante los próximos dos años, o lo que tarden en sacar la siguiente generación. Sea como sea, tiene pinta de que seguirán estando por delante de AMD para esto en particular.

Es una guarrada pero es algo muy lógico de cualquier negocio de estos, que siempre se quede algo un poco en el tintero, o sea, si la 2080ti metiera el raytracing y desde el minuto 1 esto no penalizara para nada la tasa de frames hasta en 4k, seguramente no lograrían vender la tarjeta dos veces, o tres o las que haga falta. Hay poca gente pero la hay que pase lo que pase, mientras sigan sacando gráficas mas potentes generación tras generación, van a ir a comprarlas en cuanto salgan. Para mi personalmente es tirar el dinero, pero tampoco voy a crucificar a nadie por eso. De todas formas, tiene toda la pinta de que esta generación de gráficas no va a tener una vida tan larga como la anterior, habrá gente que en cuanto cate lo que es el raytracing en sus juegos, van a querer mucho de eso y en cantidad. Las primeras gráficas no se lo van a poder servir, pero saber que las siguientes o las siguientes a ellas terminarán por dárselo como quieren, eso hace que la gente también se fidelice.

Parece que no, pero los de NVIDIA lo tienen todo muy bien pensado. Tenemos NVIDIA para rato, y me congratulo de ello.
a esperar a que bajen las 1080TI. Pagar 640€ por una 2070 (gamma media) es una puta locura . A ver pa Navidades com oanda el tema porque es lo que me quiero comprar como regalo.
hit está baneado por "Troll"
adriano_99 escribió:
Mayban36 escribió:La burrada que acabas de soltar es bíblica.

La burrada bíblica es lo que se lleva leyendo en este hilo desde el lunes de no parar de inventarse nombrecitos para intentar quitarle peso a la mayor mejora en iluminación para los videojuegos desde el primer crysis.
Que algunos parecen niños pequeños cuando no tienen argumentos y se ponen con el riy tricing miñinini.



Imagen

No y a la imagen me remito

Imagen


El dineral que piden por tener unos reflejos mejores y encima ser "early adopter" no es para defender esta tecnologia que es un saca cuartos y me voy a esperar a la reviews y a las comparativas con la serie 1000 que me huelo que sin rayitos van a ser un boost
se estan sacando muchas conclusiones en base a nada y mirando poco los datos y imagenes que hay.
ray tracing quitara rendimiento?
un sistema siempre funciona a la velocidad del componente mas lento, vamos que no tenemos ni idea de como afectara a las rtx.
ray tracing supone jugar a 1080p 30fps?
pues segun tengo entendido la resolucion no deberia de cambiar en nada el rendimiento de nucleo rtx de las graficas, es mas se habla de que los tensor cores de IA se pueden usar para multitud de algoritmos, uno de ellos mejorar el Checkerboard, permitiendo mejoras muy grandes en rendimiento con poca perdida de calidad.

pero es mas facil criticar todo lo que no entre en nuestros gustos, ahora resultara que jugar a 144fps es una experiencia orgasmica y barata.

en fin

a ver si sale algun benchnark y se puede ver de una vez que puede y que no.

un saludo
Arauen escribió:Madre mía que precios, el que compro pascal en su salida o antes de la minería al final hasta hizo buena inversión. Y aun recuerdo que nos tirábamos de los pelos entre comillas por la subida que había recibido respecto a maxwell. Pero lo de esta nueva gama ya es demencial, solo espero que no normalicen esto y luego nos parezca normal pagar 650 euros por una gama xx70, porque si llega ese momento muchos se bajaran del carro y no podrán disfrutar de su hobbie. Las grandes beneficiadas de este movimiento pueden ser las consolas, ya que si la gente empieza a dejar el mundillo por todos estos precios al alza que se están viendo(rams por las nubes, ahora también las gráficas, por no hablar de los periféricos que también se están subiendo a la parra algunas marcas.... ¿Que sera lo siguiente?), las consolas pueden ocupar ese nicho de mercado.

En fin, esperaremos a ver las reviews a ver que nos ofrecen realmente para gaming, aunque sin comentarios por parte del ceo, mal asunto. Porque si ofreciesen un cambio brutal respecto a pascal en todos los sentidos y no solo en raytracing, ¿lo anunciarías a los cuatro vientos no?

Edit: Aunque bueno, esto ultimo puede ser debido a querer vender el stock de pascal y no destapar la liebre, aunque no parece el caso


Pues no. Los primeros meses estuvieron muy caras. Las gtx 1080 rondando los 800€. Las 1070 sobre los 500€ y las 1060 cerca de los 400€.

Imagen

Esto es una captura de una web que guarda capturas de páginas web. En concreto ésa es de julio del 2016.

El problema es que incluso costando más caras que maxwell se agotaba el stock. Sólo como comentas justo antes de la minería es cuando merecía la pena comprar. Ni de salida, ni después de la minería ya no salía a cuenta.
Al final la 2070 no es similar a la 1080ti? Haber los precios de las ensambladores
zoidberg escribió:Al final la 2070 no es similar a la 1080ti? Haber los precios de las ensambladores

Según la gente que ha visto cosas a puerta cerrada de nvidia si que lo es pero hasta que no se vean benchmarks mejor no darlo por sentado.
Desde luego en mi opinión es muy mal momento para comprar una 1080ti.
1300€, pero los precios no eran escandalosos por los mineros ? Ahora es porque no tienen competencia y pueden permitirse poner esos precios ? Con la serie Gtx 1000 tenían competencia ?
Ya han comenzado las bajadas de precio en Amazon y pc componentes esta la Zotac 1080 ti mini por 699 eur, yo creo que aun bajarán más , habrá que ver cómo va evolucionando, si baja de 600 eur será buena compra
toreto2008 escribió:Ya han comenzado las bajadas de precio en Amazon y pc componentes esta la Zotac 1080 ti mini por 699 eur, yo creo que aun bajarán más , habrá que ver cómo va evolucionando, si baja de 600 eur será buena compra

Yo no compraría nada hasta ver benchmarks de la 2070.
Algunos medios dicen que tiene el mismo rendimiento que la 1080 ti y si eso se conforma comprar la 1080ti por el mismo precio o un poco menos lo veo tontería.
adriano_99 escribió:
toreto2008 escribió:Ya han comenzado las bajadas de precio en Amazon y pc componentes esta la Zotac 1080 ti mini por 699 eur, yo creo que aun bajarán más , habrá que ver cómo va evolucionando, si baja de 600 eur será buena compra

Yo no compraría nada hasta ver benchmarks de la 2070.
Algunos medios dicen que tiene el mismo rendimiento que la 1080 ti y si eso se conforma comprar la 1080ti por el mismo precio o un poco menos lo veo tontería.


Dudo que sea mas potente que una 1080 ti
Imagen
Asier. P escribió:
adriano_99 escribió:
toreto2008 escribió:Ya han comenzado las bajadas de precio en Amazon y pc componentes esta la Zotac 1080 ti mini por 699 eur, yo creo que aun bajarán más , habrá que ver cómo va evolucionando, si baja de 600 eur será buena compra

Yo no compraría nada hasta ver benchmarks de la 2070.
Algunos medios dicen que tiene el mismo rendimiento que la 1080 ti y si eso se conforma comprar la 1080ti por el mismo precio o un poco menos lo veo tontería.


Dudo que sea mas potente que una 1080 ti
Imagen


Si se confirma el rumor de que los núcleos Turing tendrían un rendimiento equivalente a 1.5 Pascales, entonces sí que podría ser casi equivalente a una 1080 Ti. Ahora bien, del rumor al hecho... habrá que esperar a los benchmarks.
Asier. P escribió:
adriano_99 escribió:
toreto2008 escribió:Ya han comenzado las bajadas de precio en Amazon y pc componentes esta la Zotac 1080 ti mini por 699 eur, yo creo que aun bajarán más , habrá que ver cómo va evolucionando, si baja de 600 eur será buena compra

Yo no compraría nada hasta ver benchmarks de la 2070.
Algunos medios dicen que tiene el mismo rendimiento que la 1080 ti y si eso se conforma comprar la 1080ti por el mismo precio o un poco menos lo veo tontería.


Dudo que sea mas potente que una 1080 ti
Imagen

No sabemos como de potente es cada núcleo turing, es la primera arquitectura completamente nueva desde kepler, esa tabla no sirve de nada.
adriano_99 escribió:
Asier. P escribió:
adriano_99 escribió:Yo no compraría nada hasta ver benchmarks de la 2070.
Algunos medios dicen que tiene el mismo rendimiento que la 1080 ti y si eso se conforma comprar la 1080ti por el mismo precio o un poco menos lo veo tontería.


Dudo que sea mas potente que una 1080 ti
Imagen

No sabemos como de potente es cada núcleo turing, es la primera arquitectura completamente nueva desde kepler, esa tabla no sirve de nada.


Pues a mi me da que los cuda cores rendirán igual o parecido y otra cosa es que aparte tengan tensor cores para el Ray tracing. Esperemos los benchmarks.
Asier. P escribió:
Pues a mi me da que los cuda cores rendirán igual o parecido y otra cosa es que aparte tengan tensor cores para el Ray tracing. Esperemos los benchmarks.

Pues parece que no tienes razón:
Imagen

edit: ejem ejem @Prototiper
Que es el dlss que pone al final de la imagen.
Que cabrones, no ponen número de fps.
adriano_99 escribió:
Asier. P escribió:
Pues a mi me da que los cuda cores rendirán igual o parecido y otra cosa es que aparte tengan tensor cores para el Ray tracing. Esperemos los benchmarks.

Pues parece que no tienes razón:
Imagen

edit: ejem ejem @Prototiper



Hablamos de 1080 ti vs 2070 o de que estamos hablando?
Qué es DLSS y por qué mete es boost tan bestia ?
Metalhead escribió:Qué es DLSS y por qué mete es boost tan bestia ?


https://www.geeknetic.es/Noticia/14196/ ... asing.html

Si se confirman esas tasas de rendimiento, las GTX 10XX probablemente bajen de precio.
Asier. P escribió:
adriano_99 escribió:
Asier. P escribió:
Pues a mi me da que los cuda cores rendirán igual o parecido y otra cosa es que aparte tengan tensor cores para el Ray tracing. Esperemos los benchmarks.

Pues parece que no tienes razón:
Imagen

edit: ejem ejem @Prototiper



Hablamos de 1080 ti vs 2070 o de que estamos hablando?

Hablamos de la comparación entre núcleos turing y núcleos pascal y si la 2080 con solo un 15% mas de núcleos consigue superar en algunos juegos el 50% de rendimiento extra es que los núcleos turing y los pascal distan mucho de rendir lo mismo.

@terriblePICHON @Metalhead
DLSS es un nuevo tipo de antialias del que se encargar los tensor cores y forma parte del programa RTX.
Es decir que esa es la diferencia entre la 1080 y la 2080 cuando la primera se encarga del AA del juego y la segunda se lo deja a sus tensor cores.
Tiene sentido porque el AA es de los ajustes que mas consumen.
Pues sin el dlss parece que la 2080 no rinde más que la 1080ti, entonces la 2070 que rinde como una 1080?
Lo del DLSS no lo conozco, por eso pregunto si esa será una opción que sea aplicable a todos los juegos o sólo a una lista de compatibles. Gracias!
@adriano_99
Se te olvida el ancho de banda de la memoria.
Sin el dlss se ven unas diferencias esperables, la barrita extra del dlss no me fio mucho, parece que será algún tipo de SS.
Ojo, que si con esta tecnologia podemos olvidarnos para siempre de los AA es una ventaja que te cagas.
En el vídeo usando la demo de UE4 la 2080ti llega a duplicar el framerate de la 1080ti.

Asier. P escribió:@adriano_99
Se te olvida el ancho de banda de la memoria.

Cierto, habría que ver cuanto afecta eso pero dudo que un porcentaje significativo.

foresst escribió:Lo del DLSS no lo conozco, por eso pregunto si esa será una opción que sea aplicable a todos los juegos o sólo a una lista de compatibles. Gracias!

De momento sólo a una lista pero supongo que la idea es que en el futuro lo usen todos los juegos.
Si eso pasa no necesitaríamos nunca mas el antialias y nos desharíamos de una de las opciones que mas gasta.

Daiben escribió:Sin el dlss se ven unas diferencias esperables, la barrita extra del dlss no me fio mucho y puede ser humo verde.

Lo puedes corroborar tu mismo, coge cualquier juego y ponlo a ultra incluido el AA, luego apaga por completo el AA y mira cuanto te mejora el rendimiento.
terriblePICHON escribió:Pues sin el dlss parece que la 2080 no rinde más que la 1080ti, entonces la 2070 que rinde como una 1080?


Lo que siempre viene haciendo Nvidia. La 2070 seria un poco mejor que una 1080 no que una 1080 ti. Otra cosa será que con el dlss si que pueda superar o igualar la 1080 ti pero sigo dudando que nvidia cambie de estrategia.
dlss es una tecnica parecida al reescalado de las consolas.

De ahi que se amplie la diferencia al usarlo.
ImagenEL DLSS, es el deep learning super sampling, básicamente gracias a las capacidades de deep learning de éstas gráficas, son capaces de completar la imagen reescalándola a resoluciones mayores, véase 4k, con un coste de recursos relativamente bajo, una especie de checkerboard, pero se supone que mejor hecho, y basándose en las bases de datos que cada compañía proporcione a nvidia para actualizar mediante drivers la compatiblidad con cada juego, resumiendo, un reescalado usando el deep learning de las tarjetas con bajo coste y alta calidad, todo teórico, puse antes un enlace en los que hablan de fps en la 2080, pero no se sabe si son brutos o DLSS.
No sé entonces si entendí bien la gráfica, pero parece que se confirma que la 2080 será un aproximado 15% más rápida que la 1080ti. Para que el cambio sea notable, tocaría esperar el futuro de la DLSS
Nvidia utiliza su infraestructura de superordenadores para realizar el proceso de aprendizaje para cada juego para que la gráfica GeForce RTX se encargue de ejecutar la inferencia de este aprendizaje en el ordenador de cada usuario.... interesante.....

Noticia traducida (https://videocardz.com/newz/nvidia-publ ... comparison):

A raíz de un debate público controvertido en Gamescom, que mostraba un rendimiento relativamente bajo con RTX habilitado, NVIDIA decidió cortar toda especulación y confirmar oficialmente que la próxima serie será 40-50% más rápida en títulos seleccionados.

Además, con DLSS habilitado (Deep Learning Super Sampling), algunos juegos compatibles ofrecerán un rendimiento aún mejor gracias a la nueva tecnología antialising.

Imagen
A ver si salen los benchmark de terceros que demuestren la ganancia, poco a poco irán llegando las gráficas a los medios para hacer las reviews
Barritas con checkboard/SS de Nvidia, sin saber si es para todos los juegos o para juegos elegidos a dedo, mejor esperar a reviews normales con todo tipo de pruebas para ver el rendimiento real.
Según la imagen, la media de ganancia es esa, en torno al 50% con respecto a la anterior gen.
KnightSparda escribió:Según la imagen, la media de ganancia es esa, en torno al 50% con respecto a la anterior gen.

Yo cogería con pinzas los resultados, esa imagen es con todo favorable a las nuevas, con el HDR (Pascal pierde rendimiento cuando se activa) y el DLSS. Luego lo mismo pones un juego normal a 2K sin los extras y la diferencia es mucho menor, veremos.
11796 respuestas