NVIDIA "Turing" Nueva Generacion GTX 16x0/Ti -|- RTX 20x0/Ti -|- SUPER

Nos han metido hasta los huevos en la boca, y cuanto antes lo asumamos, mejor. Encima salta Nvidia excusándose de que es pronto, de que su IA blablabla. Menos cháchara y que se pongan a trabajar. Para empezar, quiero activar DLSS con cualquier modelo RTX y a cualquier resolución, y a ser posible que no se vea como si tuviera miopía.

¿Aprenderemos algo después de esta vendida de humo cuando anuncien la siguiente generación, o volveremos a leer las mismas gilipolleces que hace unos meses?

Lo mejor que ha hecho Nvidia estos meses ha sido lo de liberar Adaptative Sync, y ya.
Nvidia nos ha hecho un "mortadelo" a todos.

Aún así, sin competencia por parte de amd en la gama alta, es el precio a pagar por estar a la última.

Yo lo que peor veo después de todo es que el referente de todas estas tecnologías, Metro Exodus, no es capaz de funcionar con todo activado en ultra y rtx salvo que pongas el filtro para borrachos (dlss).
raul_sanchez1 escribió:
CrazyGenio escribió:goku vs hit versión eol


[qmparto] [qmparto] [qmparto] [qmparto] [qmparto]

Lo mas curioso es que ya veo que la gente está asimilando que lo de DLSS y Raytracing ha sido humo a gran escala.

Se ha pasado de discusiones de
- "Calidad precio no compensa"
- "Compensa porque las tecnologías hay que pagarlas y son la repera"

a discusiones de tipo

- "Nos la han metido doblada a todos"
- "No a mi no"
- "Si, a ti igual que a los demás"

En fin, yo seguiré atento a ver como sigue la generación, pero vamos, doy por seguro de que esta generación es mejor saltarla de largo y hacer como que nunca ha existido...

Por cierto, me quedé con ganas de comentar el otro día la noticia de EOL de portada:

Los datos para todo el año son sin embargo positivos. De hecho, Nvidia ha obtenido unos ingresos de 11.720 millones de dólares, lo que supone una mejora del 21 % con respecto al ejercicio de 2018. Se trata de un nuevo récord, reforzado por ingresos igualmente inéditos en los segmentos dedicados a la producción de unidades gráficas para juegos, centros de datos, imagen profesional y automoción. En total, los beneficios anuales fueron de algo más de 4.000 millones de dólares.


Aún recuerdo los que hablaban de la inversión multimillonaria en investigación de nvidia y de ahí el precio de las RTX [facepalm]
No sé si sois conscientes, pero con menos de 12.000 millones de ingresos, tener mas de 4000 millones de beneficios solo es posible de una única manera: un sopreprecio brutal en los productos que vende. Hablamos de alrededor de un 35% de los ingresos se vuelven beneficios, es que eso es una auténtica burrada. Queda mas que claro lo que mucha gente decía hace unos meses, las gráficas de Nvidia tienen un sobrecoste insultante y no es por hardware ni por investigación, si no porque no tienen ningún tipo de competencia.

Yo como he dicho anteriormente, solo me planteo la 2060 como opción y no pienso pagar por ella más de 300-320€. Mis necesidades son 1080p y 144Hz, por lo que con eso tendría mas que suficiente. El que quiera 4K, pues tendrá que pasar por el aro del sobrecoste, no hay otra opción, porque según parece la 1080Ti se queda corta para esa labor.

Lo que queda claro es que no tienes ni puta idea de cómo funciona la investigación y el desarrollo.
Turing se empezó a investigar hace 10 años y por lo tanto el desarrollar esa tecnología ha sido un gasto constante año tras año. Cuando empezó ese año fiscal ya estaba casi todo listo y solo faltaba producir.
Lo que viene siendo producir una tarjeta gráfica es baratisimo, donde te dejas la pasta es en la investigación e ingeniería para desarrollar la tecnología que luego produciras. Bueno eso y las fábricas pero como se encarga TSMC pues habría que ver cuánto les cobran
Pero pretender que todos los gastos que ha conllevado turing estén en un solo año fiscal es ridículo.

A ver si os creéis que AMD lleva con la misma arquitectura desde 2011 por los loles?
Nvidia no tiene competencia porque GCN da para lo que da una arquitectura que va para los 9 años.
adriano_99 escribió:
raul_sanchez1 escribió:
CrazyGenio escribió:goku vs hit versión eol


[qmparto] [qmparto] [qmparto] [qmparto] [qmparto]

Lo mas curioso es que ya veo que la gente está asimilando que lo de DLSS y Raytracing ha sido humo a gran escala.

Se ha pasado de discusiones de
- "Calidad precio no compensa"
- "Compensa porque las tecnologías hay que pagarlas y son la repera"

a discusiones de tipo

- "Nos la han metido doblada a todos"
- "No a mi no"
- "Si, a ti igual que a los demás"

En fin, yo seguiré atento a ver como sigue la generación, pero vamos, doy por seguro de que esta generación es mejor saltarla de largo y hacer como que nunca ha existido...

Por cierto, me quedé con ganas de comentar el otro día la noticia de EOL de portada:

Los datos para todo el año son sin embargo positivos. De hecho, Nvidia ha obtenido unos ingresos de 11.720 millones de dólares, lo que supone una mejora del 21 % con respecto al ejercicio de 2018. Se trata de un nuevo récord, reforzado por ingresos igualmente inéditos en los segmentos dedicados a la producción de unidades gráficas para juegos, centros de datos, imagen profesional y automoción. En total, los beneficios anuales fueron de algo más de 4.000 millones de dólares.


Aún recuerdo los que hablaban de la inversión multimillonaria en investigación de nvidia y de ahí el precio de las RTX [facepalm]
No sé si sois conscientes, pero con menos de 12.000 millones de ingresos, tener mas de 4000 millones de beneficios solo es posible de una única manera: un sopreprecio brutal en los productos que vende. Hablamos de alrededor de un 35% de los ingresos se vuelven beneficios, es que eso es una auténtica burrada. Queda mas que claro lo que mucha gente decía hace unos meses, las gráficas de Nvidia tienen un sobrecoste insultante y no es por hardware ni por investigación, si no porque no tienen ningún tipo de competencia.

Yo como he dicho anteriormente, solo me planteo la 2060 como opción y no pienso pagar por ella más de 300-320€. Mis necesidades son 1080p y 144Hz, por lo que con eso tendría mas que suficiente. El que quiera 4K, pues tendrá que pasar por el aro del sobrecoste, no hay otra opción, porque según parece la 1080Ti se queda corta para esa labor.

Lo que queda claro es que no tienes ni puta idea de cómo funciona la investigación y el desarrollo.
Turing se empezó a investigar hace 10 años y por lo tanto el desarrollar esa tecnología ha sido un gasto constante año tras año. Cuando empezó ese año fiscal ya estaba casi todo listo y solo faltaba producir.
Lo que viene siendo producir una tarjeta gráfica es baratisimo, donde te dejas la pasta es en la investigación e ingeniería para desarrollar la tecnología que luego produciras. Bueno eso y las fábricas pero como se encarga TSMC pues habría que ver cuánto les cobran
Pero pretender que todos los gastos que ha conllevado turing estén en un solo año fiscal es ridículo.

A ver si os creéis que AMD lleva con la misma arquitectura desde 2011 por los loles?
Nvidia no tiene competencia porque GCN da para lo que da una arquitectura que va para los 9 años.


Quizá tenga mucha mas idea que tú de lo que significa invertir en investigación, ya que currar en un sector tecnológico es lo que tiene.

Lo que dices es tan ridículo como que ahora mismo estarán investigando para la siguiente generación, con los cuales, esos costes de investigación para la siguiente ya deberían estar provocando un gasto descomunal este año... cosa que se ve en los números de nvidia que no es así. Nadie dice que investigar no tenga un coste, cualquiera con dos dedos de frente ve que el precio de una tarjeta no es un 50% de investigación.

Así que deja la prepotencia que te caracteriza en este hilo y si no sabes discutir sin faltar, a mi personalmente ni te dirijas.
Nvidia está en una posición en el sector que puede hacer lo que le salga de los huevvos, así de claro, no han sacado las rtx a unos precios inflados, pero quitando las chuminadas de esta o aquella tecnología, si nos centramos en la gráficas tanto las rtx2060/70/80 son unos pepinos de gráficas.

Yo con mi 2070 a sabiendas que he pagado de demás ( y me jode de haberme quedado sin gráfica y haber aguantado un poco más a que bajaran los precios) estoy satisfecho.
adriano_99 escribió:Lo que viene siendo producir una tarjeta gráfica es baratisimo



Juraría que te leí docenas de veces en el hilo justificar el coste de las Turing con lo carísimo que era producir estos enormes chips completos por la tasa de errores en la fabricación, entre ignorado e ingnorado de usuarios.

Igual es cosa mía.
CrazyGenio escribió:goku vs hit versión eol

Me has hecho la mañana JAJAJAA
Yo por mi parte a punto estuve de tirarme a la piscina, mi tope eran unos 700€ + lo que sacase de mi actual gráfica, no soy de invertir TOP en el pc, tengo otras prioridades.
pero a modo personal no me interesan el RT y demás, así que si quería una gpu top tenía que desembolsar 600€/700€ más por algo que no pienso utilizar, yo solo busco potencia bruta, pero de haberlo hecho confieso que ahora mismo estaría bastante cabreado con nvidia y cagándome en todo, porque si me hacen gastarme el doble y luego veo que casi ningún juego usa ese extra que me han hecho pagar me cago en todo.
No pasa nada por decir "hice una mala inversión confiando en RT y DLSS, pensando que esto iba a ser la panacea", yo mismo me arrepiento de haberme decantado en su momento por un FX en vez de un intel, pero quise darles una oportunidad y por desgracia salió mal,pero esto es indefendible se pongan como se pongan, por mi parte no juego a shoters y FFV no puedo ni verlo ¿que me queda entonces? y vamos de camino a medio año con las gráficas en el mercado, yo como a final de año la cosa siga igual está claro que mi dinero no lo verán, tiraré de 2ª mano alguna 2080 o ya mega estiro mi 290 tri-x hasta la serie 3000 que espero y deseo sigan con buenas GTX y si quieren seguir con RTX que sean modelos a parte como lo son ahora las Titan, creo que eso estaría muy bien.

Y lo vuelvo a decir, no pasa nada con venir y decir " me siento un poco engañado, pagué de más y no veo resultados", muchas empresas la cagan y muchos usuario nos tiramos a la piscina confiando en ellas, pero eso solo hace que la próxima vez lo miremos mejor, chicos no hace falta discutir ni ir de prepotente ni ser el defensor de X empresa (a esa empresa se la sopla lo que pienses ¿no lo veis?) cuando la cosa ya está clara, no vale ya eso de "deben de pulirlo poco a poco" , la cosa es que debería de estar pulido desde el día 1.

No me enrollo más y disfrutar de lo que tenga cada uno que para eso estamos aquí, compartiendo el miso hobby
Imagen
Fleishmann escribió:
adriano_99 escribió:Lo que viene siendo producir una tarjeta gráfica es baratisimo



Juraría que te leí docenas de veces en el hilo justificar el coste de las Turing con lo carísimo que era producir estos enormes chips completos por la tasa de errores en la fabricación, entre ignorado e ingnorado de usuarios.

Igual es cosa mía.


Espérate que nos está dando lecciones un poseedor de una RX 580. Ha probado RTX y DLSS tanto que puede hablar desde la voz de la razón. Antes eran caras de producir, ahora resulta que son más baratas de lo que crees. Puto amo [carcajad]
@pupegbl No se si está bien explicado o si llevan razón, pero por casualidad encontré esto que es bastante entretenido de leer https://hardzone.es/2018/12/24/amd-nvidia-coste-gpu/ [beer]
alanwake escribió:@pupegbl No se si está bien explicado o si llevan razón, pero por casualidad encontré esto que es bastante entretenido de leer https://hardzone.es/2018/12/24/amd-nvidia-coste-gpu/ [beer]


Ya había leido ese artículo. Una web bastante más interesante que “lacloacainformático” la verdad. Está claro que el coste de los chips es mayor que en anteriores generaciones, pero aun así los márgenes de beneficio de Nvidia me atrevería a decir que son enormes, por no decir desproporcionados. Esto sin mencionar la vendida de humo.
@raul_sanchez1 O una de dos o te lo estás inventando o pena me dan los que te están pagando xD
Por si acaso para leer a gente inventándose cosas como que pasó así que a ignorados y deu :)

Fleishmann escribió:
adriano_99 escribió:Lo que viene siendo producir una tarjeta gráfica es baratisimo



Juraría que te leí docenas de veces en el hilo justificar el coste de las Turing con lo carísimo que era producir estos enormes chips completos por la tasa de errores en la fabricación, entre ignorado e ingnorado de usuarios.

Igual es cosa mía.

Y en ningún momento esas cosas son contradictorias.
Una cosa es que haya una subida en el costo por fabricación individual y otra cosa es que el coste de fabricación siga siendo una pequeña parte comparado al coste de llegar a tener algo que producir.
Me explico un poco así con números pero no des importancia a si digo x o y sino a la diferencia entre ellos.
Supongamos que fabricar un gp-102 costaba 50 euros.
Luego llega el tu-102 y no solo tiene casi el doble de superficie sino que es más complejo.
Entre que te salen menos de la mitad de chips por oblea y que estos tienen un ratio de fallo mucho mayor el nuevo se te puede ir a 120-150 euros por chip.
Luego súmale que esa complejidad hace que tu sistema de testeo de error no sea del todo eficiente y tienes que hacer uno nuevo ( razón por la cual las primeras tiradas tienen tantos fallos).
Podría Nvidia absorber parte de ese sobrecoste y aún así tener beneficios?
Obviamente pero sin competencia...
Eso no cambia el hecho de que antes de producir una sola gráfica de han gastado miles de millones en investigar dividido en varios años.
@raul_sanchez1, bienvenido. Pasa y toma asiento. Sólo nos quedan taburetes, yo tuve suerte y pillé sillón.
raul_sanchez1 escribió:Hablamos de alrededor de un 35% de los ingresos se vuelven beneficios, es que eso es una auténtica burrada.


Es lo que más o menos se espera en hostelería y restauración, la "galleta" se reparte en tres para uno, materia prima, dos, gastos fijos y variables y tres, beneficios. Que luego yo no sé cuánto de esto tendrá de cierto porque yo soy solo cocinero y los únicos números que me preocupan son los de las cosas que tengo en la cámara y la gente que viene a comer. Pero al hacer escandallos de platos y menús, los precios buscan más o menos cumplir ese ratio en la teoría.

Yo pensaba que tenían un sobrecoste bestial por el tema de la no competencia, pero oye, si el beneficio es del 35%... Pondré que los chips y demás son la materia prima (que ahí, aparte del coste de producción, supongo que se le cobrará a nVidia algo bastante más, digo yo que TSMC no venderá a precio de coste y también buscará cumplir "la galleta" en sus contratos...), luego supongo que nVidia tiene sus gastos de I+D+I, marketing, empleados, lugares físicos con su luz y su calefacción, que vendrían a ser los gastos fijos y variables propios de nVidia, y luego está el beneficio. Si se reparte más o menos entre tres, como parece ser por el beneficio, pues oye... Yo la verdad es que esperaba mucho más con los precios cochinos que tienen. No está nada mal.

Llevar a la práctica lo teórico tampoco puede ser de gente tan mala... Claro, que vuelvo a decir, yo soy cocinero, no tengo ni zorra de tecnología ni de empresas, ni mucho menos de empresas tecnológicas. Yo no sé de I+D+I, ni de inversión tecnológica o investigación... pero oye, como empresa de hostelería a nVidia no le pondría ningún pero con esos números... xD

Igualmente, por simplificar, yo seguiré diciendo que "el sobrecoste por un par de tecnologías que no merecen la pena no merece la pena, valga la redundancia". A ver cómo salen las 1660.
Ludvik escribió:
raul_sanchez1 escribió:Hablamos de alrededor de un 35% de los ingresos se vuelven beneficios, es que eso es una auténtica burrada.


Es lo que más o menos se espera en hostelería y restauración, la "galleta" se reparte en tres para uno, materia prima, dos, gastos fijos y variables y tres, beneficios.


Eso es lo ideal, pero es muy dificil llevar eso a cano, para que te hagas una idea de como suele rondar el percal:

https://www.tuexperto.com/2018/08/23/es ... del-mundo/

- Apple: Contaba con unos ingresos de 247.53 billones de dólares y unas ganancias de 53.32 billones de dólares. Es decir, un 21,58%

- Samsung: Sus ingresos ascendían a 224.64 billones de dólares, con unos beneficios de 40.99 billones de dólares. Es decir, un 18,30%

- Microsoft: La empresa contaba con unos ingresos de 103.31 billones de dólares, con unos beneficios de 14.21 billones. O lo que es lo mismo, 13,80%

- Alphabet (Google): La empresa contaba con unos ingresos de 117.88 billones, con unos beneficios de 16.64 billones. Es decir, 14,11%

- Intel: Sus ingresos ascendían a 64.03 billones, con unos beneficios de 11.09 billones de dólares, que es 17,32%.

- Amazon: Sus ingresos ascendían a 193.19 billones y sus beneficios a 3.94 billones de dólares. Tan solo un 2,07%

Las demás no las he calculado, pero esos datos son de hace 6 meses. Para hacerte una idea de por donde andan las empresas tecnológicas mas importantes. Un caso curioso es el de Amazon, que con esa burrada de ingresos, tiene un beneficio muy pequeño, aunque en este casi si que hay detrás una verdadera labor de inversión e investigación. Solo el año pasado invirtió 23.000 millones en eso. Mas que el doble de Apple.

@pupegbl muchas gracias, imagino que el otro habrá dicho algo y por eso me unes al club, pero lo he metido en ignorados, así que ni idea de por que estoy en este club, pero muchas gracias por dejarme participar en un club tan selecto [qmparto]
una pregunta, ese 35% es lo que ganan de margen por tarjeta o los beneficios netos de la empresa?
Es el margen de beneficios netos de la empresa, ya que @raul_sanchez1 lo ha calculado con los ingresos y beneficios totales. A nivel de producto no sé si más o menos rondará (habría que meterse ya mucho en los datos). Pero vamos, si el margen de beneficios del producto es mayor que el margen de beneficios de la empresa, eso es porque están invirtiendo mucho en algo o hay algo que genere muchos gastos, ¿no? Y al revés, claro, si el margen es menor, es porque no están invirtiendo nada (o vamos, al menos lo entiendo yo así un poco de manera barulla, considerando que lo que vendes es lo que se traduce en tus ingresos y beneficios, y que si vendes limonada con un margen del 5%, no vas a tener beneficios netos del 50% al final del ejercicio, ni al revés...).

Por cierto, encontré la web de Macrotrends donde más o menos marcan estas cosas, y sí qué coincide buscando Nvidia con un beneficio de 35%. Y también coincide con el dato que dio de Apple y Amazon @raul_sanchez1 . Eso sí, todo lo demás... Intel lo ponen en 29%, Microsoft en un 28%, Alphabet en 22%... Y AMDal 5% xD. (datos según la web a diciembre de 2018).

De todas formas esto se está yendo un poco de madre y creo que ha sido por mi culpa por el porcentaje...
@pupegbl
¿Qué tal va en Metro Exodus el RT con tu 2080 ? ¿Stuttering? He visto vídeos por youtube y lógicamente pierde mucho por la compresión, pero me parece impresionante el ray tracing en ese juego. Ya no es la mierda del BfV donde parece que estás rodeado de espejos. Me tienta.
descoat escribió:@pupegbl
¿Qué tal va en Metro Exodus el RT con tu 2080 ? ¿Stuttering? He visto vídeos por youtube y lógicamente pierde mucho por la compresión, pero me parece impresionante el ray tracing en ese juego. Ya no es la mierda del BfV donde parece que estás rodeado de espejos. Me tienta.


Pues no lo iba a comprar por estar exclusivo de la Epic, peeero me lo han regalado por mi cumple, así que no le voy a hacer ascos [ayay] @Mendrolo no saques las antorchas [burla3]

Raytracing en iluminación global y oclusión ambiental sí que merece más la pena. El escenario parece real en algunas panorámicas. Eso sí, sin DLSS porque si no, se ve muy borroso todo. Está mejor implementado que en BFV, el consumo de ram y de cpu no es disparatado, pero el rendimiento cae a 50fps en algunos momentos. Lo probé en extremo sin hairworks. Mucho menos stuttering que en BFV. Tengo que ponerme en serio de todas formas y probar en ultra, porque sólo he jugado el principio hasta la primera zona abierta.
@pupegbl

Muchas gracias. Estaré al tanto de que me cuentes a medida que avances más y en ultra. Sólo me interesa 1080p.
@pupegbl Es verdad que a mi en algún momento ha bajado puntualmente por debajo de los 60 frames, pero a 50 no ha llegado, supongo que será en tu caso por tener algo mas de resolución que mi monitor, que es fullhd solamente. En zona abierta no decae apenas el rendimiento, va todo muy suave todo el rato, algún tirón al cargar alguna zona nueva, pero a mi eso me da igual. Lo mismo que a todo el mundo, no necesita esto mucho micro para ir bien, no necesita tampoco mucha memoria y en general todo se ve muy chulo y muy bien, si desactivo el raytracing se va por encima de los 100 frames pero lo mismo, que paso de hacerlo, que para eso me compré la gráfica así, para ver los brilli brilli nuevos que para eso están.

En el battlefield lo he dejado ya un poco por imposible por ahora, a ver si ese refinamiento del entrenamiento de la red neuronal la próxima vez es de verdad, porque estoy hasta pensando cosas raras, que hayan cogido la imagen a 1080p, la estiran hasta 1440p y eso es lo que se ve, ni red neuronal ni entrenamiento ni hostias (que es algo que por aquí ya ha mencionado alguien), le metes al algoritmo que haga algo de retardo para que parezca que la gráfica está trabajando y ya está. Esperar 2 meses largos para esto es para tirarlos por un barranco del todo. Como además mi micro no permite que esto se ponga muy por encima de los 60 frames sin decir aquí estoy yo haciendo de freno, lo que voy a hacer a partir de ahora es poner la gráfica a 1680 mhz., el juego en ultra todo sin dlss a 1080p, que así me da eso, unos 60 frames mas o menos constantes y además así la gráfica ni se calienta, quedando alrededor de los 60 grados todo el rato y a tirar millas con eso. De todas formas las optimizaciones se le están notando al juego, recuerdo que cuando desactivaba antes el raytracing, se me ponía en unos 120 frames en fullhd con todo en ultra y ahora se pone a mas de 130, incluso llegando a los 144 frames del monitor en algún momento. Al final el battlefield ha sido juntar un juego que estaba mas en beta que en producción, con una gráfica que está mas en beta que en producción también, ya podían haber avisado.

Pero claro, si lo avisan entonces no habrían vendido ni la mitad de gráficas de las que han vendido hasta ahora, si hubieran sacado la 2060 a la par de las 2080 y 2070, la 2060 se habría llevado un pedazo de tarta mucho mas grande y les habría perjudicado. Y es que estos son unos listos también, está claro. Sobre el tema del i+d de las turing, viendo lo que es el software ya podrían haberse ahorrado muchos esfuerzos, viendo lo que se ve a día de hoy, podrían haber liberado mucho mas código junto a éstas y con eso la comunidad y las universidades seguramente lo aprovecharían mejor y mas rápido que ellos mismos incluso. El quake2 ese hecho con vulkan de hace un mes es para mi hasta ahora la cosa mas flipante que he probado con esta gráfica, siendo obra de muy poca gente además.
@pakolo1977
¿Podrías decirme qué tal va metro exodus con RT en high ( no en ultra ) a 1080p y todo lo demás en ultra?

[beer]
pupegbl escribió:
descoat escribió:@pupegbl
¿Qué tal va en Metro Exodus el RT con tu 2080 ? ¿Stuttering? He visto vídeos por youtube y lógicamente pierde mucho por la compresión, pero me parece impresionante el ray tracing en ese juego. Ya no es la mierda del BfV donde parece que estás rodeado de espejos. Me tienta.


Pues no lo iba a comprar por estar exclusivo de la Epic, peeero me lo han regalado por mi cumple, así que no le voy a hacer ascos [ayay] @Mendrolo no saques las antorchas [burla3]

Raytracing en iluminación global y oclusión ambiental sí que merece más la pena. El escenario parece real en algunas panorámicas. Eso sí, sin DLSS porque si no, se ve muy borroso todo. Está mejor implementado que en BFV, el consumo de ram y de cpu no es disparatado, pero el rendimiento cae a 50fps en algunos momentos. Lo probé en extremo sin hairworks. Mucho menos stuttering que en BFV. Tengo que ponerme en serio de todas formas y probar en ultra, porque sólo he jugado el principio hasta la primera zona abierta.


Pecador!

Yo he sido el primero en pasar por el aro, en mi caso tragando con Denuvo porque la store si que me la pela y ya tengo claro que de la primera capa de DRM no te libras (llámese steam/epic/osuputamadre), no estoy como para dar lecciones ;p

Avisar a los interesados en el juego, que a medida que avanza se vuelve más exigente. Yo en el segundo mapa abierto, ya he estado jugando a 50fps con bajadas a 30fps (y nada de puntuales, del rollo que mientras mires en una dirección no sube) y ya me han avisado que en el último mapa la cosa empeora aún más. La cosa es que luce muy bien, si no te obsesiones con extremo/ultra/alto, luce espectacular de todas las formas. Lo mejor es olvidarse del contador de fps y sólo hacer comprobaciones si notas algo raro.
Mendrolo escribió:Pecador!

Yo he sido el primero en pasar por el aro, en mi caso tragando con Denuvo porque la store si que me la pela y ya tengo claro que de la primera capa de DRM no te libras (llámese steam/epic/osuputamadre), no estoy como para dar lecciones ;p

Avisar a los interesados en el juego, que a medida que avanza se vuelve más exigente. Yo en el segundo mapa abierto, ya he estado jugando a 50fps con bajadas a 30fps (y nada de puntuales, del rollo que mientras mires en una dirección no sube) y ya me han avisado que en el último mapa la cosa empeora aún más. La cosa es que luce muy bien, si no te obsesiones con extremo/ultra/alto, luce espectacular de todas las formas. Lo mejor es olvidarse del contador de fps y sólo hacer comprobaciones si notas algo raro.


Y yo pensando que hablabas de la dificultad xD
@Mendrolo
¿con la vega o te has pillado la 2080 también?
descoat escribió:@Mendrolo
¿con la vega o te has pillado la 280 también?

si se pilla una 280 es para ir a su casa y ... :Ð :Ð :Ð

PD: Te entiendo [beer]
alanwake escribió:
descoat escribió:@Mendrolo
¿con la vega o te has pillado la 280 también?

si se pilla una 280 es para ir a su casa y ... :Ð :Ð :Ð

PD: Te entiendo [beer]


Es que los ceros son traicioneros, [sati] Editado. Gracias!!
descoat escribió:@Mendrolo
¿con la vega o te has pillado la 2080 también?


Con la vega, con la vega ;p

Pero por lo que se lee en el hilo, todo el mundo está igual. No es que haya rascadas, es que hay zonas en que bajan una barbaridad los fps de forma constante, y tampoco es que veas que en pantalla se muestre algo más exigente que en otras en las que vas desahogado. Pero vamos, yo que juego sin contador de fps, y siendo poco exigente en ese sentido, disfruto del espectáculo igual. Gente más sensible o acostumbrada a jugar a tasas altas, puede sufrir.

@Alejandro_Tomas lo estoy jugando en normal, y en cuanto te haces con las mecánicas, es bastante paseo, al final su punto fuerte es la historia, no es como los anteriores que hay momentos muy jodidos. En este tienes campo para salir corriendo si se tercia (pero ni hace falta) ;p
@Mendrolo

Me has picado. Esta noche lo pillo y lo testeo a lo largo de la semana.
@descoat Con la 2080 con los valores de fábrica, a 1080p con el rt en alto en zonas interiores alrededor de los 110-120 frames, en zonas exteriores entre los 90 y 100. Todo en la zona del volga. Si lo pongo el raytracing en ultra pasa a ser unos 100 en interior y unos 80 en exterior.

P.D. El juego me ha pasado ya 3 veces, se me cuelga y me saca al escritorio. Windows no me avisa de si ha habido un fallo del driver, voy a mirar en el registro de sucesos a ver si veo algo.

P.D.2 Ay, tengo que decir que ahora que me doy cuenta, antes dije que el juego lo tenía por encima de 60 y que muy rara vez bajaba de esos frames. Eso es también porque últimamente estoy probando mucho jugar a 1080p con la gráfica bajada de vueltas para que se caliente menos, y así los frames obviamente están mas bajos que esto primero que he puesto aquí. De todas formas los cuelgues del juego no me han pasado solamente cuando la gráfica estaba a menos velocidad, porque también me han pasado con la gráfica a la velocidad de fábrica, sin tocarle nada con el afterburner. En el visor de sucesos no pone nada de fallo del driver, aunque si hace registro del fallo del programa.
(mensaje borrado)
Pues creo que me lo voy a jugar sin RTX. Hay zonas en las que la diferencias apenas se aprecian a no ser que estés parado activando y desactivando RTX. Eso sí, la pérdida de rendimiento se nota muchísimo. Grandes tecnologias. Parece que tenemos un nuevo caso Gameworks como ya se dijo allá por septiembre. 10 años desarrollando estas gráficas? Todavía hay alguno que se lo cree.
pupegbl escribió:Pues creo que me lo voy a jugar sin RTX. Hay zonas en las que la diferencias apenas se aprecian a no ser que estés parado activando y desactivando RTX. Eso sí, la pérdida de rendimiento se nota muchísimo. Grandes tecnologias. Parece que tenemos un nuevo caso Gameworks como ya se dijo allá por septiembre. 10 años desarrollando estas gráficas? Todavía hay alguno que se lo cree.


Esto es bastante diferente a GameWorks. Hay que valorar la tecnología como lo que es, primeriza completamente en aplicación a videojuegos. Esto no es como GameWorks en el sentido que no lo ha metido Nvidia a calzador para fomentar sus tarjetas frente a la competencia, esto es un metodo de renderizado de una imagen 3D como otra cualquiera salvo que necesita una capacidad de cómputo salvaje.

El día que cualquier otra compañía quiera empezar a ofrecer renderizado en tiempo real a través de RayTracing pasará por exactamente lo mismo que está pasando Nvidia en sus comienzos, porque esto no es una tecnología propietaria, y eso cambia mucho las cosas. Ahora bien ... es el futuro inmediato? no, en todo caso para entusiastas que quieran disfrutarlo todo sin importar la pasta, pero desde luego quien antes empiece antes llegará a dar una calidad de imagen brutal frente a la competencia.
KailKatarn escribió:
pupegbl escribió:Pues creo que me lo voy a jugar sin RTX. Hay zonas en las que la diferencias apenas se aprecian a no ser que estés parado activando y desactivando RTX. Eso sí, la pérdida de rendimiento se nota muchísimo. Grandes tecnologias. Parece que tenemos un nuevo caso Gameworks como ya se dijo allá por septiembre. 10 años desarrollando estas gráficas? Todavía hay alguno que se lo cree.


Esto es bastante diferente a GameWorks. Hay que valorar la tecnología como lo que es, primeriza completamente en aplicación a videojuegos. Esto no es como GameWorks en el sentido que no lo ha metido Nvidia a calzador para fomentar sus tarjetas frente a la competencia, esto es un metodo de renderizado de una imagen 3D como otra cualquiera salvo que necesita una capacidad de cómputo salvaje.

El día que cualquier otra compañía quiera empezar a ofrecer renderizado en tiempo real a través de RayTracing pasará por exactamente lo mismo que está pasando Nvidia en sus comienzos, porque esto no es una tecnología propietaria, y eso cambia mucho las cosas. Ahora bien ... es el futuro inmediato? no, en todo caso para entusiastas que quieran disfrutarlo todo sin importar la pasta, pero desde luego quien antes empiece antes llegará a dar una calidad de imagen brutal frente a la competencia.


Ya tío, eso lo sé y lo valoro. Dentro de unos años se conseguirá jugar con raytracing. Pero es eso, dentro de unos años. Ahora mismo estas implementaciones están muy en pañales, demasiado a mi parecer para lo que ofrecen actualmente. Sólo espero que de aquí a no mucho tiempo vayan optimizando esto. Es como hemos dicho por aquí alguna vez, el dichoso software hay que optimizarlo.
hombre eso de que no se nota el raytracing...

se nota menos pasar de bajo a extremo que quitar o poner el raytracing
A mí me ha decepcionado bastante en Battlefield V, me da tirones y parones, y el rendimiento cae al suelo...

Hablo de una 2080 a 1440p. Pero vamos, yo no compraba una tarjeta de estas por el Ray Tracing o el DLSS, esto último sí que es una auténtica tomadura de pelo, pones tú a mano una resolución inferior y reescalas por gpu a una superior y se ve y rinde mejor. Lo que han hecho las consolas toda la vida y tanto se les ha criticado.
yo por ahora paso de raytracing, como bien decis no compensa la perdida de rendimiento, si pillo una rtx sera por su rendimiento y consumo, no por raytracing ni dlss.
no se si es cierto, pero ya he leido varias veces que sony y microsoft meteran raytracing a sus proximas consolas, por lo que no se trara de un nuevo physx.

un saludo
hit está baneado por "Troll"
https://www.hardocp.com/news/2019/02/18/hardware_unboxed_calls_nvidia_dlss_biggest_rtx_fail_them_all/

Se han quedado agusto y con razon...

In all instances, the DLSS image looks to be a smeared image and the 1685p upscaled 78% resolution scale image is much more pleasing to look at. Tim Schiesser says, "The 1685p image destroys the DLSS image in terms of sharpness, texture quality, clarity; basically everything." He goes on to say, "The 78% scaled image preserves the fine detail on the rocks, the sign, the sandbags, the cloth, the gun; pretty much everywhere. With DLSS everything is blurred to the point where this detail is lost." Resolution scaling has been available to gamers for decades. They hold back no punches and say, "DLSS sucks."

Y agusto es poco
hit escribió:https://www.hardocp.com/news/2019/02/18/hardware_unboxed_calls_nvidia_dlss_biggest_rtx_fail_them_all/

Se han quedado agusto y con razon...

In all instances, the DLSS image looks to be a smeared image and the 1685p upscaled 78% resolution scale image is much more pleasing to look at. Tim Schiesser says, "The 1685p image destroys the DLSS image in terms of sharpness, texture quality, clarity; basically everything." He goes on to say, "The 78% scaled image preserves the fine detail on the rocks, the sign, the sandbags, the cloth, the gun; pretty much everywhere. With DLSS everything is blurred to the point where this detail is lost." Resolution scaling has been available to gamers for decades. They hold back no punches and say, "DLSS sucks."

Y agusto es poco


Con un par.

No eran a estos a los que acusaban de estar casados con Nvidia y hacer boicot a los productos de AMD en sus reviews?

Toma ya!

PD: por si alguien quiere el vídeo:

hit está baneado por "Troll"
Alejandro_Tomas escribió:
hit escribió:https://www.hardocp.com/news/2019/02/18/hardware_unboxed_calls_nvidia_dlss_biggest_rtx_fail_them_all/

Se han quedado agusto y con razon...

In all instances, the DLSS image looks to be a smeared image and the 1685p upscaled 78% resolution scale image is much more pleasing to look at. Tim Schiesser says, "The 1685p image destroys the DLSS image in terms of sharpness, texture quality, clarity; basically everything." He goes on to say, "The 78% scaled image preserves the fine detail on the rocks, the sign, the sandbags, the cloth, the gun; pretty much everywhere. With DLSS everything is blurred to the point where this detail is lost." Resolution scaling has been available to gamers for decades. They hold back no punches and say, "DLSS sucks."

Y agusto es poco


Con un par.

No eran a estos a los que acusaban de estar casados con Nvidia y hacer boicot a los productos de AMD en sus reviews?

Toma ya!

PD: por si alguien quiere el vídeo:



A ver yo tengo una 2070 pero es que es ponerlo en el bf5 y jugarte un par de mapas y es un canteo lo que hace a largas distancias...en un juego como black ops 4 tb lo he probado y al ser los mapas mas pequeños no se nota o da el pego

Yo por otro lado sabia que estas tecnologias no me iban a gustar cuando la compre,el motivo de la compra fue potencia unica y exclusivamente y la verdad es que hubiera preferido mas cudas y mas clocks antes que esto pero...aun asi muy contento con mi 2070,me da lo que busco lo que no quita que no tenga dos dedos de frente para ver que estas tecnologias son el timo de la estampita
papatuelo escribió:Que desproposito:

Imagen

Imagen

[facepalm] [facepalm]
hit está baneado por "Troll"
https://www.youtube.com/watch?time_continue=286&v=7BpOQUkMI4o

Jaytocents tb se queda agustico...tio que fue tachado de vendido en su dia por "segun algunos" un fanboy de nvidia
el hecho de que haya gente un poco decepcionada o decepcionada totalmente es culpa de la propia nvidia, con la serie 10 nos mimaron mucho, el salto de la 9 a la 10 fue tan grande que volo a AMD de vuelta a la edad de piedra, hasta amd se tardo 2 años en sacar las vega y a duras penas superar a la 1080 y 3 contando la radeon vii que porfin parece que va a superar a la 1080ti, que ahora si nvidia nos dan las mejores cosas del mundo no nos vamos a maravillar mucho como los niños mimados de nvidia que nos convertimos.

nvidia siempre nos daba caramelos pero con la 10 nos dio un sundae muy goloso, con la 20 volvemos a los caramelos pero esta vez son más brillantes y muchos hacen berrinche por su sundae.

Yo por suerte no probe la 10 si no estuviera igual, mi salto fue de la 980 a la 2080, estoy contento.
Con el dlss también lo que pasa es que la cosa canta demasiado, canta tanto que negar lo evidente es como decir que el día es la noche o al revés. Defender lo del dlss de nvidia en el battlefield y el metro exodus es tirarse piedras encima.

Aún así supongo que con esto de los tensor cores, el deep learning y todo el rollo de la ia para el tratamiento de imágenes, a la larga podrían hacerse muchas cosas chulas, si tan solo liberaran mas código para que la gente en sus casas tuvieran para jeringuear con eso mas. A la larga debería llegar todo eso, pero por ahora habrá que pedir solamente que pongan a alguien con buena vista al mando de la supercomputadora esa que hace el entrenamiento de la red neuronal, porque el colega que ha validado eso debe ser mas miope que yo mismo, en fin. XD

En el final fantasy XV el dlss funciona y se ve genial, en el port royale también, aunque ahí está claro que el precálculo tiene cierta trampa, ya que la demo es la misma siempre. Sea como sea la cosa está muy muy verde, está claro. Esta cosa que podría haberles funcionado como el vendetarjetas definitivo deberían haberlo cuidado muchísimo mas, porque ahora mismo el daño está hecho y van a tener que hacerlo muy muy bien a partir de ahora para que la gente no digamos que el dlss es algo fallido. Cuando salió el port royale nada hacía presagiar que fuera a ser esto un bluf tan gordo, la verdad.

Vamos a ver que pasa también con el directml ese de Microsoft, a ver como se usa cuando eso salga. Ya que por ahora Nvidia no está por la labor de liberar nada, como siempre, que haya mas de una alternativa para hacer alguna cosa a la larga debería beneficiar a los usuarios. Sería una guarrada muy gorda que nvidia no dé soporte mediante drivers al directml ese para cuando salga, pero no creo que eso pase, sería como pegarse un tiro en el pie. Pero lo dicho, que habrá que ver para que lo querrán usar eso cuando salga. Supongo que lo venderán eso para hacer que la inteligencia de los bichos de los juegos aumente, o hacer bots que aprendan a jugar al juego que sea, después ya será menos eso, como pasa siempre. El secreto de esta industria es mantener un estado permanente de necesidad en los usuarios para que no dejemos de comprarles cosas, aunque a veces sean refritos de las anteriores, tanto en hardware como en software.
CrazyGenio escribió:el hecho de que haya gente un poco decepcionada o decepcionada totalmente es culpa de la propia nvidia, con la serie 10 nos mimaron mucho, el salto de la 9 a la 10 fue tan grande que volo a AMD de vuelta a la edad de piedra, hasta amd se tardo 2 años en sacar las vega y a duras penas superar a la 1080 y 3 contando la radeon vii que porfin parece que va a superar a la 1080ti, que ahora si nvidia nos dan las mejores cosas del mundo no nos vamos a maravillar mucho como los niños mimados de nvidia que nos convertimos.

nvidia siempre nos daba caramelos pero con la 10 nos dio un sundae muy goloso, con la 20 volvemos a los caramelos pero esta vez son más brillantes y muchos hacen berrinche por su sundae.

Yo por suerte no probe la 10 si no estuviera igual, mi salto fue de la 980 a la 2080, estoy contento.


Se te ha olvidado meter la evolución de los precios en la historia de la tienda de dulces XD
papatuelo escribió:Que desproposito:

Imagen

Imagen

Imagen

Desde luego, menuda tomadura de pelo. Me río de los que ladraban y se dejaban la piel en el pellejo defendiendo este reescalado consolero. [carcajad] [qmparto]
ahora ya sacan series 1150, 1660ti, me apuesto 10 piedrólares a que veremos una 1770 y 1880ti sin RTX ni chorradas, que por mi parte lo prefiero y esa 1880ti si que me tiraría a por ella.
Como dicen los compañeros, esto ya no hay por donde cogerlo ni forma de defenderlo, creo que deberían de haberlo sacado en la serie 3000 directamente, así tendrían 3/4 años para pulirlo y quedar de acuerdo con las desarrolladoras para que lo implementen.
¿Los juegos que vienen gratis por la compra de una rtx son para Steam o como va? Acabo de comprar PC nuevo y con la 2060 dan el B5 o el Anthem, elegiré este último, pero la verdad no me interesa ninguno. No sé si puedo vender el código o va asociado a la tarjeta o algo así.
Ben Archard ( del equipo de 4A games ) comentó:

" it’s possible to do real-time ray-tracing on consoles purely using the compute power of traditional shader units"

Osea que el camino que ha elegido nvidia no es el único y por ahora parece que siempre busca la forma más rocambolesca y cara de afrontar un reto como hizo con el Gsync.

No tengo ni idea de cuando va a dar información Lisa Su sobre el ray tracing pero este año era el elegido para desvelar su propuesta.
Estaremos atentos porque si hacen compatibles todas sus tarjetas pretéritas (potables) con DXR, va a ser muy divertido.

Me gusta mucho esta tecnología pero veo que sólo la 2080 ti garantiza jugarlo decentemente y es inaceptable que nivida haya recortado tantos rt cores a las demás gamas. Para eso saca sólo una con ray tracing y el resto sin ello pero más asequibles.
11796 respuestas