Comparativa de rendimiento entre Xbox One X y PC

16, 7, 8, 9, 10

¿Por qué sólo pone el contador de fps cuando está seguro de que superará los 30 con resolución dinámica? ¿A qué settings está ejecutando los juegos? ¿Tengo que fiarme de él que ha demostrado ser muuuuuy hater de la X y confunde al personal?
@Xlooser No lo conozco, no sabía que era un hater. ¿Qué pasó?

Solamente en el vídeo del FFXV muestra las opciones que usa ¬_¬
@Xlooser y un supuesto PC de 450 dólares en USA a cuántos euros equivaldría en Europa? Porque mi torre son 500€ mas una 1050ti de 150€ y no creo que mueva eso así.... [reojillo]
Vamos a ver. Xbox One X por 499€ Ahora se puede encontrar por 399 en muchos sitios, es una consola capaz de ejecutar juegos al nivel de ordenadores con una 1070 GTX.

Cuando yo digo al nivel de una 1070, no quiero decir que sea más potente o igual de potente que un ordenador con una 1070. Simplemente que la configuración base del juego ne Xbox One X da ese perfil. Juegos a 4K 30 en high, sin demasiados compromisos.

Obviamente un PC con la 1070, una cpu I7, cpu con SSD, RAM para aburrir y una buena configuración del equipo y del juego, rinde más que Xbox One X. pero para eso, es mucha más pasta en tu equipo y tiempo buscando la cofiguración correcta.

Yo no soy hater de jugar en PC ni mucho menos. La gente que usa PC para jugar está acostumbrada y se busca la vida, se gasta pasta cada x años para mejorar su equipo y prueba drivers, cacharrea con configuraciones etc.... Al final con una 1070 y una buena cpu, normalmente conseguiran mejor rendimiento que una Xbox One X, pero sin fliparse. Sobre todo puede mejorar resutados en juegos muy cpu dependientes, más que nada porque el jugador de PC puede tener un equipo de más de 1000 euros, y el de consola es de 400€.

Xbox One X te dá lo que promete, por un modico precio. Y no creo que tengamos que estar discutiendo si es mejor o peor opción. Las dos opciones son diferentes para tipos de jugadores diferentes. Nadie es mejor o peor por una elección tan propia de cada uno.

He visto miles de videos sobre este tema de si 580, 1060 o 1070, pero lo que tengo claro es que si subimos videos para hablar del tema, hay que ser 100% objetivos y fieles a buscar los mejores videos posibles para comparar.

De nada me sirve comparar Forza 7 en una 580 y decir que vá con frame rate desbloqueado a 70 fps, y luego ver que si hay lluvia baja de 60 fps y que no tiene activado ningún tipo de AA o de Blur como en Xbox One X.

Y lo contrario igual.

Ya en bastante desventaja juega Xbox One X llevando un Jaguar y USando menos TDP, como para que se enseñen videos sin especificar la configuración que llevanm o el quipo que montan,

Si se hace, se hace bien.


Y a lo que me refería con que Scarlett puede optar a buscar el nivel de la 2080 TI. No es que vaya a tener la potencia desatada de la 2080 Ti, si no que buscarán que los juegos que van ahora en Xbox One X a 4K/30, vayan a 4K/60

Si doblan la GPU, la CPU, quintuplican el HD metiendo SSD con PCEIe4, y mejoran la RAM y las cachés... No es algo taaaaaan imposible. Otra cosa es que luego la 2080 TI acabe siempre con mejores resultados gracias a su potencia bruta. No lo discuto.
Esta generación las consolas son PC pero en la siguientes van a ser buenos PC. Yo estoy abandonando el PC por las consolas principalmente por que si la consola no esta comprometida (vamos que no puedas jugar juegos piratas en esa plataforma) para el multiplayer es mucho mejor ya que en PC se esconden bajo el paraguas de los Mods un montón de mierdas que destrozan el juego.

La siguiente generación captara a muchos ya que los precios de los componentes rozan lo absurdo. Si a la consola le sumas algunos periféricos, como teclado y ratón, o servicios como permitir crossplay entre las dos principales plataformas le darán duro al PC.

Ahora bien, al Cesar lo que es del Cesar, jamas será más potente una consola que un PC contemporáneo a ella con lo mejor de lo mejor, esto es así y se dice desde el primer post. No creo que monten lo mejor de lo mejor por que tiene que ser rentable, así que se irán a la gama media del momento que es lo que han estado haciendo hasta ahora. Cuando salio la FAT se fuerón a por la gama media baja y otros a por la media, cuando sacaron la X se fuerón a la gama media, ¿por qué no montaron una Vega? Esta claro que es por que les tiene que salir una maquina rentable y equilibrada, así que por esto no creo que monten algo como la gama alta, montaran algo resultón, que es de sobra para contentarnos al 99% de nosotros.
Wghos7 escribió:@Xlooser No lo conozco, no sabía que era un hater. ¿Qué pasó?

Solamente en el vídeo del FFXV muestra las opciones que usa ¬_¬

Que se compare la X con un PC despierta muchas ampollas, y Youtubers como en este caso, pues.........se nota su parcialidad. Quien esté tan seguro de la superioridad de una GTX1070 no se molesta porque otros afirmen que están al mismo nivel en rendimiento.

Hay que matizar, algo que ya he hecho varias veces, pero entiendo que tú no lo hayas leido. Una GTX1070 es indudablemente superior, no hay discusión posible, es mejor hardware. Lo que yo digo, y veo a diario, es que la mejor versión de un juego en la X, es decir, con optimización a tope está al mismo nivel que en un i7+GTX1070 con optimización típica. Si en PC la optimización es buena, tendrás mejores resultados en PC siempre, aunque no tanto como marca la diferencia de precio, tamaño, consumo, etc, etc....

Por supuesto, un PC es tan flexible que lo puedes poner en 1440p ó 1080p si quieres y ganar en el resto de apartados. El renidmiento por watio y rendimiento por coste pertenece a la plataforma cerrada, esto tampoco admite discusión.


Yui Shojei escribió:@Xlooser y un supuesto PC de 450 dólares en USA a cuántos euros equivaldría en Europa? Porque mi torre son 500€ mas una 1050ti de 150€ y no creo que mueva eso así.... [reojillo]

Como esté el cambio + 7% de impuestos, 431,43 euros. Lo que está claro que hay mucha gente que miente como bellacos diciendo que con una GTX1060 de 3 GB juega mejor que con una X a cualquier juego o que consigue nosecuantos fps a 4K con una GTX1070 y le ha costado 80 euros............claro que sí, me lo creo. El mundo real es diferente y resulta que no hay tanta gente con GTX1080, que parece que se regalan con los cereales jajajaja.
niñodepapa escribió:Esta generación las consolas son PC pero en la siguientes van a ser buenos PC. Yo estoy abandonando el PC por las consolas principalmente por que si la consola no esta comprometida (vamos que no puedas jugar juegos piratas en esa plataforma) para el multiplayer es mucho mejor ya que en PC se esconden bajo el paraguas de los Mods un montón de mierdas que destrozan el juego.

La siguiente generación captara a muchos ya que los precios de los componentes rozan lo absurdo. Si a la consola le sumas algunos periféricos, como teclado y ratón, o servicios como permitir crossplay entre las dos principales plataformas le darán duro al PC.

Ahora bien, al Cesar lo que es del Cesar, jamas será más potente una consola que un PC contemporáneo a ella con lo mejor de lo mejor, esto es así y se dice desde el primer post. No creo que monten lo mejor de lo mejor por que tiene que ser rentable, así que se irán a la gama media del momento que es lo que han estado haciendo hasta ahora. Cuando salio la FAT se fuerón a por la gama media baja y otros a por la media, cuando sacaron la X se fuerón a la gama media, ¿por qué no montaron una Vega? Esta claro que es por que les tiene que salir una maquina rentable y equilibrada, así que por esto no creo que monten algo como la gama alta, montaran algo resultón, que es de sobra para contentarnos al 99% de nosotros.


Vamos a ver. Con lo de Contemporaneo lo dices bien. Estamos a mediados de 2019. Las nuevas consolas no salen muy posiblemente hasta finales de 2020. Más de un año para que salgan, en pleno proceso de cambio de pasar la mayoria de tarjetas de 14 finfet(hay algunas de 12) a 7 nm, donde puedes meter más chicha, y encima hay cambios inminentes en tecnologias de GPU, cpu y nandflash, pasando por poner un ejemplo, de Vega a Navi.

Cuando salga en 2020 la PS5 y Anaconda serán más potentes que el PC más actual? Imposible. Serán más potentes que el un PC de Mayo de 2019 con una 2080 TI? No creo(pero no imposible). Tendrán más rendimiento por euro gastado? Si.
@eloskuro AMD no va a tener nada mejor que la Radeon VII que es Vega 20 a 7nm y es la gama entusiasta.

Imagen

Yo en vuestro lugar esperaría algo así como una GTX 1080 OC, Vega 64 o GTX 2060. Por supuesto que si sale en el 2021 pueden montar algo un poco mejor seguro y en el 2022 mucho mejor [qmparto] [qmparto]

Es correcto también indicar que cuando salio la FAT la gráfica que montaron llevaba casi dos años en el mercado, ese modelo en concreto no, pero el grueso de la serie 7000 se lanzo, puso a la venta, entre Enero y Marzo del 2012 (incluyendo la 7970) es más la RX 290X y 290 salieron antes que la consola en 2013... yo no apostaría a que la nueva consola va a montar algo diferente de Navi si se lanza en 2020.
niñodepapa escribió:@eloskuro AMD no va a tener nada mejor que la Radeon VII que es Vega 20 a 7nm y es la gama entusiasta.

Imagen

Yo en vuestro lugar esperaría algo así como una GTX 1080 OC, Vega 64 o GTX 2060. Por supuesto que si sale en el 2021 pueden montar algo un poco mejor seguro y en el 2022 mucho mejor [qmparto] [qmparto]

Es correcto también indicar que cuando salio la FAT la gráfica que montaron llevaba casi dos años en el mercado, ese modelo en concreto no, pero el grueso de la serie 7000 se lanzo, puso a la venta, entre Enero y Marzo del 2012 (incluyendo la 7970) es más la RX 290X y 290 salieron antes que la consola en 2013... yo no apostaría a que la nueva consola va a montar algo diferente de Navi si se lanza en 2020.


Insistes en lo de Radeon 7 y aún no ha salido lo que tiene Navi. El lunes creo que podrémos hablar con más datos y más certezas. Hasta ahora Radeon 7 sólo es una transición con poco stock,Dudo mucho que sea el buque insignia de AMD hasta finales de 2020

He insisto. No he dicho que Scarlet sea más potente que 2080Ti, que es lo que usas para criticarme y reirte. Solo he dicho que lo normal es que si Xbox One X(de 2017) hace 4k/30 o 1800p/30 en la mayoría de juegos, con el doble de potencia en todos los ambitos(Como se presupone) dificil no será que no haga 4k/60 anaconda en 2020. Como Hace la 2080 Ti. Que lugeo con la 2080 tengo más settings en Ultra? ok. Tambien cuesta ella sola más del doble.
eloskuro escribió:
Insistes en lo de Radeon 7 y aún no ha salido lo que tiene Navi. El lunes creo que podrémos hablar con más datos y más certezas. Hasta ahora Radeon 7 sólo es una transición con poco stock,Dudo mucho que sea el buque insignia de AMD hasta finales de 2020

He insisto. No he dicho que Scarlet sea más potente que 2080Ti, que es lo que usas para criticarme y reirte. Solo he dicho que lo normal es que si Xbox One X(de 2017) hace 4k/30 o 1800p/30 en la mayoría de juegos, con el doble de potencia en todos los ambitos(Como se presupone) dificil no será que no haga 4k/60 anaconda en 2020. Como Hace la 2080 Ti. Que lugeo con la 2080 tengo más settings en Ultra? ok. Tambien cuesta ella sola más del doble.


Ehh para el carro, yo no me estoy riendo de ti. Si te molestan lo emoticonos lo siento, es mi forma de ser es como una coña, pero no me río de ti. Tampoco te critico, tener otro punto de vista o decirte que algo no es como crees no es criticar como tal en el mal sentido de la palabra, que es como creo la usas, asi que te aclaro que tampoco vengo por cabezas como indicaba otro compi por ahí.

Por lo demas ya te digo que no, que no hace 4K 30fps hace 1080p a X frames, con la CPU que tiene seguro que por debajo de 60 muchas, muchas veces y lo reescala.
niñodepapa escribió:
eloskuro escribió:
Insistes en lo de Radeon 7 y aún no ha salido lo que tiene Navi. El lunes creo que podrémos hablar con más datos y más certezas. Hasta ahora Radeon 7 sólo es una transición con poco stock,Dudo mucho que sea el buque insignia de AMD hasta finales de 2020

He insisto. No he dicho que Scarlet sea más potente que 2080Ti, que es lo que usas para criticarme y reirte. Solo he dicho que lo normal es que si Xbox One X(de 2017) hace 4k/30 o 1800p/30 en la mayoría de juegos, con el doble de potencia en todos los ambitos(Como se presupone) dificil no será que no haga 4k/60 anaconda en 2020. Como Hace la 2080 Ti. Que lugeo con la 2080 tengo más settings en Ultra? ok. Tambien cuesta ella sola más del doble.


Ehh para el carro, yo no me estoy riendo de ti. Si te molestan lo emoticonos lo siento, es mi forma de ser es como una coña, pero no me río de ti. Tampoco te critico, tener otro punto de vista o decirte que algo no es como crees no es criticar como tal en el mal sentido de la palabra, que es como creo la usas, asi que te aclaro que tampoco vengo por cabezas como indicaba otro compi por ahí.

Por lo demas ya te digo que no, que no hace 4K 30fps hace 1080p a X frames, con la CPU que tiene seguro que por debajo de 60 muchas, muchas veces y lo reescala.


Quew Xbox One X hace 1080p a X frames?

No seas mentiroso anda.
RDR2 va a 4k nativosy 30 fps

Fh4 va a 4k Nativos y 30 fps

BFV entre 1900p y 4k y 60 fps

AC Oddyssey entre 2944x1656 y 4k (el 60%del tiempo 4k) y 30 fps

Shadow of the tomb Raider 4k nativos y 30 fps

Metro Exodus 4k Nativos y 30 fps

----------------

Juegos de primer nivel. Más todos los first party a 4k, claro....
eloskuro escribió:
niñodepapa escribió:
eloskuro escribió:
Insistes en lo de Radeon 7 y aún no ha salido lo que tiene Navi. El lunes creo que podrémos hablar con más datos y más certezas. Hasta ahora Radeon 7 sólo es una transición con poco stock,Dudo mucho que sea el buque insignia de AMD hasta finales de 2020

He insisto. No he dicho que Scarlet sea más potente que 2080Ti, que es lo que usas para criticarme y reirte. Solo he dicho que lo normal es que si Xbox One X(de 2017) hace 4k/30 o 1800p/30 en la mayoría de juegos, con el doble de potencia en todos los ambitos(Como se presupone) dificil no será que no haga 4k/60 anaconda en 2020. Como Hace la 2080 Ti. Que lugeo con la 2080 tengo más settings en Ultra? ok. Tambien cuesta ella sola más del doble.


Ehh para el carro, yo no me estoy riendo de ti. Si te molestan lo emoticonos lo siento, es mi forma de ser es como una coña, pero no me río de ti. Tampoco te critico, tener otro punto de vista o decirte que algo no es como crees no es criticar como tal en el mal sentido de la palabra, que es como creo la usas, asi que te aclaro que tampoco vengo por cabezas como indicaba otro compi por ahí.

Por lo demas ya te digo que no, que no hace 4K 30fps hace 1080p a X frames, con la CPU que tiene seguro que por debajo de 60 muchas, muchas veces y lo reescala.


Quew Xbox One X hace 1080p a X frames?

No seas mentiroso anda.
RDR2 va a 4k nativosy 30 fps

Fh4 va a 4k Nativos y 30 fps

BFV entre 1900p y 4k y 60 fps

AC Oddyssey entre 2944x1656 y 4k (el 60%del tiempo 4k) y 30 fps

Shadow of the tomb Raider 4k nativos y 30 fps

Metro Exodus 4k Nativos y 30 fps

----------------

Juegos de primer nivel. Más todos los first party a 4k, claro....



Mentiroso me llamas anda que tiene cojones... primero lloras y despues insultas, y sobre todo cuando afirmas hace 4k 30fps... anda que no tienes ni puta idea, desde cuando una RX 580 ( y ya te doy vidilla) con una CPU de bajo consumo a 2.3Ghz va bien. Ya el mero hecho de reescalar desde la resolución que sea, que muchas de las que dices habrá que ver.. no es 4K y desde luego nada mesurable y comparable puesto que ni los settings son claros.... 4k dices [qmparto] [qmparto]
niñodepapa escribió:
eloskuro escribió:
niñodepapa escribió:
Ehh para el carro, yo no me estoy riendo de ti. Si te molestan lo emoticonos lo siento, es mi forma de ser es como una coña, pero no me río de ti. Tampoco te critico, tener otro punto de vista o decirte que algo no es como crees no es criticar como tal en el mal sentido de la palabra, que es como creo la usas, asi que te aclaro que tampoco vengo por cabezas como indicaba otro compi por ahí.

Por lo demas ya te digo que no, que no hace 4K 30fps hace 1080p a X frames, con la CPU que tiene seguro que por debajo de 60 muchas, muchas veces y lo reescala.


Quew Xbox One X hace 1080p a X frames?

No seas mentiroso anda.
RDR2 va a 4k nativosy 30 fps

Fh4 va a 4k Nativos y 30 fps

BFV entre 1900p y 4k y 60 fps

AC Oddyssey entre 2944x1656 y 4k (el 60%del tiempo 4k) y 30 fps

Shadow of the tomb Raider 4k nativos y 30 fps

Metro Exodus 4k Nativos y 30 fps

----------------

Juegos de primer nivel. Más todos los first party a 4k nativos, claro....



Mentiroso me llamas anda que tiene cojones... primero lloras y despues insultas, y sobre todo cuando afirmas hace 4k 30fps... anda que no tienes ni puta idea, desde cuando una RX 580 ( y ya te doy vidilla) con una CPU de bajo consumo a 2.3Ghz va bien. Ya el mero hecho de reescalar desde la resolución que sea, que muchas de las que dices habrá que ver.. no es 4K y desde luego nada mesurable y comparable puesto que ni los settings son claros.... 4k dices [qmparto] [qmparto]


Las que he dicho que son 4k son 4k nativos según Digital Foundry.
LAs que he dicho que reescalan, reescalan dinamicamente a esos niveles que he puesto, segun Digital Foundry.

Solo teines que leer sus artículos. Si tienes información de cualquier otra web del nivel que maneje otros datos sobre esos juegos me dices y retiraré lo de mentiroso. Mientras no sea así y te reafirmes en que esos juegos no van a la resolución que he dicho, me pareces un mentiroso. No es insultar. Es claramente lo que haces si obvias la realidad objetiva(datos de DF)y tratas de negarla.
eloskuro escribió:
Las que he dicho que son 4k son 4k nativos según Digital Foundry.
LAs que he dicho que reescalan, reescalan dinamicamente a esos niveles que he puesto, segun Digital Foundry.

Solo teines que leer sus artículos. Si tienes información de cualquier otra web del nivel que maneje otros datos sobre esos juegos me dices y retiraré lo de mentiroso. Mientras no sea así y te reafirmes en que esos juegos no van a la resolución que he dicho, me pareces un mentiroso. No es insultar. Es claramente lo que haces si obvias la realidad objetiva(datos de DF)y tratas de negarla.


[qmparto] [qmparto] [qmparto] [qmparto] si hombre sí, lo que tu digas, ¿como lo miden y donde lo puedo ver?, ¿lo puedo emular yo igual que ellos en casa? Con un PC sí puedo, ¿es algo oficial que se especifique en los juegos? Anda que sí, que a ver cuantos analistas afirman eso.

La mejor es esa de " a 4k el 60% del tiempo" jajajajaja

Como ya sabemos como acaba te dejo, que cuando saquen la nueva ya volvere a estos temas con más risas [qmparto] [qmparto]
niñodepapa escribió:
eloskuro escribió:
Las que he dicho que son 4k son 4k nativos según Digital Foundry.
LAs que he dicho que reescalan, reescalan dinamicamente a esos niveles que he puesto, segun Digital Foundry.

Solo teines que leer sus artículos. Si tienes información de cualquier otra web del nivel que maneje otros datos sobre esos juegos me dices y retiraré lo de mentiroso. Mientras no sea así y te reafirmes en que esos juegos no van a la resolución que he dicho, me pareces un mentiroso. No es insultar. Es claramente lo que haces si obvias la realidad objetiva(datos de DF)y tratas de negarla.


[qmparto] [qmparto] [qmparto] [qmparto] si hombre sí, lo que tu digas, ¿como lo miden y donde lo puedo ver?, ¿lo puedo emular yo igual que ellos en casa? Con un PC sí puedo, ¿es algo oficial que se especifique en los juegos? Anda que sí, que a ver cuantos analistas afirman eso.

La mejor es esa de " a 4k el 60% del tiempo" jajajajaja

Como ya sabemos como acaba te dejo, que cuando saquen la nueva ya volvere a estos temas con más risas [qmparto] [qmparto]


Pues nada... Dejo aqui la conversación si te tengo que creer a tí en vez de a Digital Foundry.

DF hizo pública su forma de analizar la resoución de los juegos en consola. Revisalo tú por tu cuenta y hazlo en casa si quieres. Adios.
Xbox va a 720 p que he contado los puntitos
Y un pc con una 2080 rtx va a 721p que he contado los puntitos.
¿Todavía con el tema de que en Xbox One X los juegos son 4K reescalados? Partiendo de esa base, no me extraña que alguien esté tan confundido, que hable de assets guarros, etc, etc...........(Grinch, no te des por aludido, sé que lo tuyo es coña)
Para quienes aparentemente no saben cómo va el tema. Los análisis de DF son técnicos, usan sondas que sí, pueden contar los píxeles, así como contar fotogramas, detectar tearings y tiempos de respuesta (para detectar bajadas de FPS con vsync), y todo lo que quieran.

Así que todos los datos de juegos que ha dado @eloskuro son reales. Sin embargo parecen ser un tanto inverosímiles para un hardware tan barato y malo, leyendo ciertas reacciones de opiniones acostumbradas a que el hardware sólo funciona de una única manera posible.
Tranquilos que voy con la lección aprendida :)

Para medir rendimiento entre GPU se usan los Tflops al margen de la arquitectura, etc.. y para ver la resolución interna hay que hacer caso a Digital Foundry que hace lo imposible y de forma mágica, por que FCAT que es la herramienta que se usan para medir los fps tras una captura de vídeo no sirve para eso, pero ellos tras un exhaustivo análisis del vídeo mirando frame a frame ven si en alguno decae la resolución y de ahi lo deducen jajajajajajaja a ver que cojo aire jajajajajajajajajajaja

Grandes los gurus del foro jajajajajajajaja.
¿Del foro?, se ve que no entendemos el concepto de herramientas profesionales de medición. Aquí lo que vale es poner el FRAPS y hacer capturas de pantalla en casa, muy pro todo sí. Así es como se hace en los estudios.

"Mirando", sí claro, se pegan a la pantalla y se concentran a ver lo que vislumbran.
niñodepapa escribió:Tranquilos que voy con la lección aprendida :)

Para medir rendimiento entre GPU se usan los Tflops al margen de la arquitectura, etc.. y para ver la resolución interna hay que hacer caso a Digital Foundry que hace lo imposible y de forma mágica, por que FCAT que es la herramienta que se usan para medir los fps tras una captura de vídeo no sirve para eso, pero ellos tras un exhaustivo análisis del vídeo mirando frame a frame ven si en alguno decae la resolución y de ahi lo deducen jajajajajajaja a ver que cojo aire jajajajajajajajajajaja

Grandes los gurus del foro jajajajajajajaja.


Para medir el frame rate usan un videos DIrect Feed hechos por ellos mismos con la consola que están analizando. USan software hecho por ellos para ver los ms de respuesta, el frame rate y demás. Eso ya está bastante testado y hay software diferente en la industria que lo mide con mucha precisión. TAmbien como dice darksch hay herramientas para medir la señal de video, pero ahoraanda todo más automatizado ya que ellos mismos se crean su software para ver las constantes, las medias de fps, el tearing etc...

Para medir la resolución de cada imagen se hace usando muchas images direct feed y analizandolas. Hay que buscar referencias en las imagenes, ampliar lo máximo posible y contar pixeles como quien dice.

https://www.eurogamer.net/articles/digi ... l-counting

Lo que se necesita para determinar las resoluciones nativas son, preferentemente bordes geométricos largos y afilados, preferentemente de alto contraste en la naturaleza para resaltar los bordes escalonados '' de la línea. A partir de ahí, a través de lo que es generalmente una muestra de 30 píxeles, se cuenta la cantidad de escaleras pasos generados por la consola. Suponiendo que estamos hablando de resolución vertical, 20 pasos de una muestra de 30 nos da este cálculo - (20/30) x 1080. El resultado final: 720p. Si ves 25 pasos, eso es (25/30) x 1080 ... 900p.


Imagen


Es decir. Cualquiera sabiendo lo que hace y con tiempo libre puede contar pixeles, y decirles que se han equivocado. Pero no suele ocurrir mucho la verdad.

En juegos con resolución dinamica. Toman muchas muestras en momentos con poca carga gráfica y con mucha carga gráfica. Lógicamente, cuando cae la resolución, es cuando el frame rate está menos estable, o cuando hay más caos en pantalla, por lo que es facil saber cuando hay menos resolución y lo pueden medir facilmente.

Por eso te he dicho que si no te lo crees lo cuentes tú. Hay otras webs que lo hacen, y todas dan resultados identicos o casi identicos.

No es algo de lo que puedas sospechar. Es facil contar pixeles si sigues la explicación, y si se usa checkerboard y cosas similares, la imagen tiene defectos que los profesionales saben reconocer. Mediante formulas matematicas simples se llega siempre a la solución.


Te parecerá una forma absurda o lo que quieras, pero es la forma de ver la resolución que se utiliza y no admitite lugar a dudas. Lo que hay y se cuenta es lo que ves en la imagen, si te dá ese resultado es el que es. Y ya pueden contar 20 o 30 personas la misma imagen que si se hace bien te dá lo que es. No hay trampa ni cartón
Pongo esto por aquí, porque en el otro hilo de la next-gen no tiene cabida:

PowerMore escribió:
IridiumArkangel escribió:
NosferatuX escribió:
La competidora de la proxima generacion al menos con RT no es la serie 2000, Microsoft y Sony no estan haciendo consolas 4K de estandar para que luego se arrastren a con RT y estan vigilando ese tema bien de cerca.


Y... aquí creo que estará el quid de la cuestión. Tengo la impresión de que con el tema del RT habrá "jugada del chepas". Hay calidades y calidades de RT (no es lo mismo 1 Gigarayos/seg que 10 Gigarayos/seg), y tampoco me extrañaría que se sacasen de la manga una "solución RT propia" con un RT light para limitar justo eso que mencionas; que afecte en demasía a la estabilidad de lo ejecutado.

Cuando vi esto, me pareció una pista de lo que habrá en las next-gen:

Gran Turismo Dev Polyphony Digital Are Working on Their Own Real-Time Ray Tracing Tech


https://wccftech.com/gran-turismo-polyphony-raytracing/

Lo dicho, ya iremos viendo, pero equipararlas o incluso decir que superarán el rendimiento que logra una 2080Ti me parece algo muy osado; sin más.

Me imagino que tampoco es lo mismo tener RT por hardware con chips dedicados donde destinas una potencia de casi 2 Tflops independientes de la potencia del sistema a esta tecnología, a utilizar RT por software donde quieras o no te comes recursos potenciales del hardware. La interesante será ver si el RT por software merma el rendimiento de la consola y en que medida cuando lo compares con un hardware con chips dedicados para RT.



Eculicuá.

Szasz escribió:@IridiumArkangel
Tienes razón y no, y me explico. Voy a coger lo q has puesto para referirte a "rendimiento".

"Rendimiento: En informática, medida o cuantificación de la velocidad/resultado con que se realiza una tarea o proceso. En una computadora, su rendimiento no depende sólo del microprocesador como suele pensarse, sino de la suma de sus componentes como la memoria, el bus, gpu, diversos dispositivos, etc. y sus softwares"

La GPU es un elemento más del tándem, del rendimiento final. Si lo q tú estás hablando es de benchmarks sintéticos dónde se haga trabajar a la GPU de una forma aislada al resto de componentes pues sí, podrías tener razón. Pero si de lo q hablamos es de correr juegos hay q tener en cuenta otras variables. ¿Como es posible q un Jaguar a velocidades ridículas comparadas con los PC de sobremesa sea capaz de mover un juego como Battlefield con 64 personajes a 60 fps. Alguien ha probado a jugar con un jaguar (debería de ser de 4 núcleos desgraciadamente) a un Battelfield? Son elementos q se optimizan tanto a nivel hardware como es el caso de Xbox, como a nivel software. Consiguiendo rendimientos superiores a los de sus homónimos en PC. Lógicamente si tu usas un benchmark sintético y lo lanzas sobre esos jaguar y luego sobre otra CPU que te de el mismo rendimiento en el Battelfield q hemos hablado antes, veremos q la CPU de PC es más potente, pero sin embargo en el juego comentado no lo demuestra. Este es un ejemplo básico de optimización de las consolas, y es lo q la gente se refiere a rendimiento. Rendimiento JUGANDO, q es diferente a rendimiento teórico.


Pues claro que me refiero a los benchmark, es así como se comparan los rendimientos de las distintas Gpu de Pc nop!? Con respecto al resto, claro que estoy de acuerdo en que en consolas se optimizan y puede que sea más efectivo que el redimiento directo que te ofrece su homónimo en Pc, pero ello suele conllevar también una reducción de la calidad global JUGANDO como le comenté a Xlooser... (menos/peores efectos efectos, texturas menos detalladas, LoDs, sombras, etc etc)

Xlooser escribió:
IridiumArkangel escribió:Que en Pc utilicen las Gpu sin miramientos de manera bruta sin aprovecharla en profundidad, no exime que el RENDIMIENTO que te ofrece una GTX2080Ti sea muy bruto por los mismos números que gasta.

Venga tío, ¿debo tener en cuenta el rendimiento POSIBLE que no se materializa en el mundo real? Ya sé que un juego programado específicamente para una cierta arquitectura dará mejores resultados, aunque menos de lo que esperas, pues los motores hoy en día son muy escalables.


Scarlet puede llegar a ser tan EFECTIVA como una GTX2080Ti

Exacto, pero yo digo que será mejor, mejor de verdad. Los números han de ser suficientes para el resultado que quieres lograr, el resto sólo incrementará el coste.

Si 500 GB/s son suficientes para alimentar el 100% del tiempo a tus 3840 stram processors ¿para qué más? No vas a ganar rendimiento.
Si el planificador de la GPU tiene un límite de "x" wavefronts con "y" elementos para dar curro a "z" stream processors" ¿para qué quieres "z"+500?
Si 64 ROPs son suficientes para escribir un búfer 4K con 4 bytes por píxel ¿por qué vas a montar 128?
Así con todo. Eso sí, los números en el papel van a abrir todas las bocas de los lectores.


Con respecto a la manida mágica optimización de las consolas, otro apunte (y soy usuario de consolas, no tengo Pc gamer, pero las cosas como son). Optimización es cuasi sinónimo de reducción de calidad

Optimización es hacer más con menos, no reducción de calidad. A lo mejor los conceptos deberíamos repasarlos (todos, no sólo tú) y hacer menos caso a la prensa "especializada" que coge una linde y sigue y sigue.


mediante el uso de múltiples técnicas ideadas por los desarrolladores del laborioso arte de engañar al ojo/cerebro humano. Esto es como querer equiparar 4k nativos con 4k chekerboard, ambos dan una salida 4k...

No es una técnica para engañar al cerebro, sino para inferir 4K reales, otra cosa es que lo consiga. ¿Si con una técnica novedosa se escala de 1080p a 4K con IDÉNTICO resultado que renderizar a 4K, estás siendo engañado? Yo creo que no, estás viendo 4K, el camino para conseguirlo es indiferente al resultado.


La optimización en las consolas siempre ha sido una buena baza cuando los hardwares de estas eran soluciones específicas diferentes de la x86 de los Pc que los desarrolladores explotaban focalizándose en sus fuertes hasta el extremo. Hoy en día, las consolas "son Pcs x86" levemente customizados por la marca Z que toque por lo que muchas de las optimizaciones hechas para las Gpu de AMD de estas son aprovechables para las Gpu de AMD en Pc, disminuyendo ese gap de optimización real entre hardware parejos. Nvidia va por libre, pero vamos que ya se encargan ellos de hacer lo propio.

¿Por qué con arquitectura x86 la optimización ya no funciona?

Bueno, a mi no me parece tan leve reducir miles o cientos de miles de instrucciones a 11. Ni reducir las latencias. Ni disminuir el tiempo de las referecias a memoria. Ni comprimir la información de color un 20% sin pérdida de calidad, ni hacer que un ROP escriba 8 bytes por ciclo en vez de 4.....Todas estas optimizaciones ("reducciones de calidad") son por hardware, si en un PC no existen, pues..........no será tan eficiente. Lo que está claro es que si una consola es un PC tal cual, el rendimiento será el mismo.


Las bondades de un hardware único, cerrado y capado están ahí, al igual que las de un hardware abierto y flexible que incluso permite llegar a forzar sus límites con overclock o mejorar los juegos con mods. Cada uno tiene sus pros y contras, y cada vez aunque mantengan sus clásicas características, son hardwares más parecidos al contrario que antaño.

Estoy de acuerdo, yo también lo he dicho varias veces.


Luego hay un parámetro que no se está contemplando, los estudios de desarrollo. Si tienes un estudio de desarrollo que te exprime hasta la extenuación tu hardware, parece increible lo que logran. Luego en cambio otro estudio con el mismo hardware, te hace una medianía técnica. Vease Naughty Dog o Turn 10 como ejemplos prácticos.

También estoy de acuerdo, por eso yo hablo de rendimiento. Al equiparar una consola con un PC de hardware superior ese es el primer parámetro con el que cuento. Las técnicas más novedosas no se normalizarán hasta que las usen en consolas. El RT no será lo cotidiano hasta PS5 y Scarlett. La super-resolución tampoco. El Checkerboard....lo que se te ocurra. Técnicas así se inventan por tener un límite superior y la necesidad de hacer más con menos.


Dale a uno de esos estudios una GTX 2080Ti para desarrollar específicamente, e íbamos a ver realmente de lo que sería capaz un hardware como ese...

Lo sé, sería espectacular. Pero bueno, yo pienso que en Scarlett se verían mejores cosas. Me tragaré mis palabras si resulta que no es así, no tengo ningún problema.

La GPU de Xbox One se basa en la HD7790, ¿crees que la mejor tarjeta de la generación anterior de AMD (Radeon HD6970) es superior a una Xbox One en cuanto a rendimiento? No es compatible con DX12, con lo que ya es menos avanzada.


Por cierto, cuando una RTX usa RT, los shaders se bloquean, no hacen nada. Eso es una cagada del diseño desde cualquier ángulo que mires. Me extrañaría que el RT fuera igual en Scarlett. Sólo arreglando eso, la mejora es sustancial.


Me gustaría contestarte punto por punto en detalle, pero llevo una semana muy ajetreada y apenas tengo tiempo de esplaye.

Claro que hay que ver la capacidad máxima de una 2080Ti de benchmark (es como se comparan las Gpu de Pc punto por punto), aunque en la realidad los desarrolladores no le saquen todo su jugo. Por tu regla de 3, yo podría decir que mi Civic iguala a un Ferrari para conducir por autopista a 120 Km/h que es como vamos todos en la realidad; y no se me ocurre decir tal cosa... [+risas]

Optimización puede llegar a ser "hacer más con menos", pero suele conllevar en muchos de los casos bajada de calidad no jodamos, aunque un ojo no entrenado no se entere. El Hellblade por ejemplo, que lo tenemos a disposición desde su versión Pc hasta la de una Switch. En todas es el mismo juego, pero su calidad global varía por tener que rebajar calidades optimizándolo en base al hardware disponible.

Por cierto, cuando hablo de optimización siempre me refiero a optimización por técnicas de software (checkboard, aplicación de efectos, reflejos, calidad de assets, LoD, etc) con diferente coste computacional y con ello también calidad final, no a las de hardware. Estas últimas si que pueden marcar diferencias notables, como por ejemplo lo ha sido en la Cpu de la XOne X que todo el mundo sigue diciendo que es "la misma mierda de Jaguar que Ps4/XOne"; y está más que demostrado que no es así. Eso sí, estas modificaciones también pueden llegar a ser un lastre si el desarrollador no las tiene en cuenta/aprovecha, y para muestra la ESRAM de la XOne (mira, otro caso con múltiples ejemplos a principio de gen donde no se le sacaba todo el jugo real al hardware, y no por ello decimos que la X360 estaba a la altura de XOne porque al no aprovechar la ESRAM sacaban juegos a 720p).

Y sí, la 2080Ti tiene errores de diseño que seguro que los siguientes modelos mejorarán, pero sigue siendo una mala burra pese a ellos.

Para acabar, mira que he estado casi siempre de acuerdo en todo lo que dices porque además lo razonas muy acertadamente, pero en este caso con la 2080Ti siento discrepar. Ojalá tengas razón y las next-gen equiparen las capacidades de esa bestia parda, yo no lo veo...

Saludos
Creo que no soy el único que ve estos hilos absurdos. Para ser justos debería ser comparativa de Xbox One X contra un PC del mismo precio. Está claro que un PC te puede dar muchísimo más, pero a un precio tb muchísimo más alto. El resto ya va en función de gustos y/o necesidades.
@IridiumArkangel
Pero ésto q pones aquí:

"Con respecto al resto, claro que estoy de acuerdo en que en consolas se optimizan y puede que sea más efectivo que el redimiento directo que te ofrece su homónimo en Pc, pero ello suele conllevar también una reducción de la calidad global JUGANDO como le comenté a Xlooser... (menos/peores efectos efectos, texturas menos detalladas, LoDs, sombras, etc etc)"

No lo termino de entender. Yo me refiero a q por ejemplo en One X tu tienes una GPU q por número de Stream processors equivale a una Rx 580, pero los retoques en el ancho de banda, reducción de cuellos de botella en áreas q Microsoft había detectado, etc....hace q el rendimiento final esté por encima de está. Tú te refieres a compararlo con el PC como si siempre debiera compararse con el tope de gama y es lógico q en ese escenario la consola siempre pierda. Otro tipo de comparativa sería la q he dicho, buscar algo equivalente en el mundo del PC, y ya si tienes en cuenta precio y consumo eléctrico, verás q la consola siempre tiene un mejor aprovechamiento de los recursos, bien por via software (desarrollo mejor adaptado a una arquitectura cerrada) o vía hardware (pequeños retoques q permiten mejores consumos y rendimientos superiores a la hora de ejecutar juegos).
O sea que los juegos a 4k nativos no van a 4k nativos por que .... pue porque si.
Pero un pc es superior porque.. ah puesnpor que si.
Pues yo quiero decir que la tierra es plana . Por qué? Pues porque si .

Ale ya podéis cerrar el hilo.
Que por qué? Pues porque si.


La ignorancia hoy en día es peor que la estupidez
[facepalm]

y para el que no lo pille.
Xbox X tiene juegos 4k nativos le guste o no a la gente
Y el pc SIEMPRE será mejor que una consola ( con su debida inversión claro) le guste o no a la gente
Szasz escribió:@IridiumArkangel
Pero ésto q pones aquí:

"Con respecto al resto, claro que estoy de acuerdo en que en consolas se optimizan y puede que sea más efectivo que el redimiento directo que te ofrece su homónimo en Pc, pero ello suele conllevar también una reducción de la calidad global JUGANDO como le comenté a Xlooser... (menos/peores efectos efectos, texturas menos detalladas, LoDs, sombras, etc etc)"

No lo termino de entender. Yo me refiero a q por ejemplo en One X tu tienes una GPU q por número de Stream processors equivale a una Rx 580, pero los retoques en el ancho de banda, reducción de cuellos de botella en áreas q Microsoft había detectado, etc....hace q el rendimiento final esté por encima de está. Tú te refieres a compararlo con el PC como si siempre debiera compararse con el tope de gama y es lógico q en ese escenario la consola siempre pierda. Otro tipo de comparativa sería la q he dicho, buscar algo equivalente en el mundo del PC, y ya si tienes en cuenta precio y consumo eléctrico, verás q la consola siempre tiene un mejor aprovechamiento de los recursos, bien por via software (desarrollo mejor adaptado a una arquitectura cerrada) o vía hardware (pequeños retoques q permiten mejores consumos y rendimientos superiores a la hora de ejecutar juegos).


Es que estamos cruzando post y no tiene que ver lo que le discuto a Xlooser con lo que me comentaste tu. Que las consolas suelen tener un mejor aprovechamiento de hardware es un hecho, totalmente de acuerdo en ello.

P.D Lo de no creerse que hay juegos a 4k nativos en la X a estas alturas, es de traca... [+risas]
@Xlooser Para recapitular: La GPU de la X se acerca más a una 1070 que a una 1060 pero debido a la CPU eso no se plasma al 100%. Como ya te comenté la 1070 es más para 1440p, si la emparejas con un i7, va a rendir más que la X en su conjunto, lo mismo que la 1060 a 1080p. Todo esto hablando de 60fps o más y de juegos que dependan más de la CPU.

Creo que ya nos vamos entendiendo pero no consigo entender porque usas un i7 para comparar.

Edit: Ok ya lo entendí, he visto vídeos a 4k con un Ryzen 3 y hace cuello de botella hasta a una 1060 aunque con un i5/Ryzen 5 sobra.
Xlooser escribió:
Wghos7 escribió:@Xlooser No lo conozco, no sabía que era un hater. ¿Qué pasó?

Solamente en el vídeo del FFXV muestra las opciones que usa ¬_¬

Que se compare la X con un PC despierta muchas ampollas, y Youtubers como en este caso, pues.........se nota su parcialidad. Quien esté tan seguro de la superioridad de una GTX1070 no se molesta porque otros afirmen que están al mismo nivel en rendimiento.

Hay que matizar, algo que ya he hecho varias veces, pero entiendo que tú no lo hayas leido. Una GTX1070 es indudablemente superior, no hay discusión posible, es mejor hardware. Lo que yo digo, y veo a diario, es que la mejor versión de un juego en la X, es decir, con optimización a tope está al mismo nivel que en un i7+GTX1070 con optimización típica. Si en PC la optimización es buena, tendrás mejores resultados en PC siempre, aunque no tanto como marca la diferencia de precio, tamaño, consumo, etc, etc....

Por supuesto, un PC es tan flexible que lo puedes poner en 1440p ó 1080p si quieres y ganar en el resto de apartados. El renidmiento por watio y rendimiento por coste pertenece a la plataforma cerrada, esto tampoco admite discusión.


Yui Shojei escribió:@Xlooser y un supuesto PC de 450 dólares en USA a cuántos euros equivaldría en Europa? Porque mi torre son 500€ mas una 1050ti de 150€ y no creo que mueva eso así.... [reojillo]

Como esté el cambio + 7% de impuestos, 431,43 euros. Lo que está claro que hay mucha gente que miente como bellacos diciendo que con una GTX1060 de 3 GB juega mejor que con una X a cualquier juego o que consigue nosecuantos fps a 4K con una GTX1070 y le ha costado 80 euros............claro que sí, me lo creo. El mundo real es diferente y resulta que no hay tanta gente con GTX1080, que parece que se regalan con los cereales jajajaja.

El problema es que se debería comparar la X con un PC de iguales caracteristicas, y remarcar "iguales caracteristicas", porque una persona que tenga una 2080ti 32gb de ram, y un 8700k, pues a lo mejor le entra un poco la risa.
Segundo problema, no hay un PC con las mismas caracteristicas que una X, por lo que cualquier comparativa, como poco es cuestionable y cada uno lo puede interpretar de distinta manera.
Si alguien mostrara que armo una PC con 399 euros desde cero con todo y control y claro componentes nuevos dando el rendimiento que da la X todo mundo [tadoramo] pero como es una consola no cuenta, jajaja
Grinch escribió:O sea que los juegos a 4k nativos no van a 4k nativos por que .... pue porque si.


a 4k iran algunos poco demandantes, pero algo como Red Dead Redemptión ni de coña o Battlefield 5. Es que es gracioson todo esto por que simplemente no hay manera de saber a que resolución interna se renderiza sin tener acceso al codigo, motor, o como lo quieras llamar para que nos entendamos.

"DICE's work typically presents beautifully given additional resolution, and the recent Battlefield 1 update for Xbox One X brought us pretty close to 4K60 gameplay. Both Xbox One X and PlayStation 4 Pro implement dynamic resolution scaling, with 2160p and 1800p the respective target pixel counts. DRS measurement is always something of an imprecise science - by definition, the rendering load can change dramatically at any given point. Xbox One X typically renders in an 1836p-1944p window, but the scope is there to drop lower. Full 4K is theoretically possible but only resolves very rarely in the current build. Full resolution output - or anything like it - is also infrequent on Pro, with pixel counts in the 1296p area most common in our sampling."

Sólo con leer metodología y herramientas utilizadas ya te da la risa, es imposible a partir de grabar y analizar un gameplay coño y más en un juego donde esta implementado desde el propio motor como este. Es un crack el Thomas ese de los huevos jajajajaja pero ná que aquí todo bien jajajaja herramienta desarrollada por ellos dicen por aquí jajajajaja o sonda de piexeles jajajaja.


Lo mejor que pueden hacer estos es medir fps y comparar settings, siendo esto ultimo una aproximación ya que el desarrollador no tiene por que mantener los diferentes niveles de PC vamos que es todo a ojimetro.

Esta es la buena [bye]
@niñodepapa y no van a 4k porque ..... yo lo digo.
La tierra es plana tío. Es un hecho. Porque yo lo digo.
Y la de tonterías que dices es enorme y tengo pruebas .. sabes cuales ? Pues por que yo lo digo.

[facepalm]

Pd: yo escribía a digital foundry que una mente como la tuya no se la pierdan... vamos para que se echen unas risas ellos también.

Y como veo no es ignorancia sino lo otro por mi parte prefiero no leer más estupideces así que te meto en el lado oscuro. Pero tranquila creo que es a 1080 p nativo el ignorado
A mí me la suda sobremanera la diferencia con un pc, pero lo que no es de recibo es que se vea mejor y más nítido el rage 2 en una gtx 960 de 100 pavos que una one x, no se la está aprovechando.

Me está pasando como en mi infancia, que tuve un msx que dejaba por los suelos al spectrum y al final el 90% del catálogo eran ports del mentado
Wghos7 escribió:@Xlooser Para recapitular: La GPU de la X se acerca más a una 1070 que a una 1060 pero debido a la CPU eso no se plasma al 100%. Como ya te comenté la 1070 es más para 1440p, si la emparejas con un i7, va a rendir más que la X en su conjunto, lo mismo que la 1060 a 1080p. Todo esto hablando de 60fps o más y de juegos que dependan más de la CPU.

Creo que ya nos vamos entendiendo pero no consigo entender porque usas un i7 para comparar.

Edit: Ok ya lo entendí, he visto vídeos a 4k con un Ryzen 3 y hace cuello de botella hasta a una 1060 aunque con un i5/Ryzen 5 sobra.

Eso es, una GTX1070 es mejor GPU que la de el Scorpio Engine, indiscutible. La Xbox One X sólo puede aspirar a compararse en rendimiento a una GTX1070 en el mejor de los casos con juegos a 30 fps (importante). Con juegos a 60 fps, yo la compararía con una GTX1060 de 6 GB.

¿Qué suele pasar? Que ese combo es más potente que la X y en el caso promedio va a rendir más. Y si el juego estuviera pensado para ese i7 y GTX1070............entonces ya no habría dudas.

Digo lo del i7 porque suele ser su compañero en casi todos los videos, pero luego ves que la CPU está al 40% y te das cuenta que un i5 hace la misma función. La CPU de la X seguro que está cerca del 100% casi todo el rato.


@Vaody el resultado es lo único fiable a la hora de comparar, 4K30 y assets High en consola es lo mismo que 4K30 y assets High en PC.

Lo de la RTX2080 no lo he cogido, ese mismo también se reirá del que tenga una GTX1070 y si el Mare Nostrum 4 fuera mío, me reiría de todos.


@niñodepapa resulta que el Red Dead Redemption 2 va a 4K nativos, parece que lo has dicho adrede. Lo comentó Rockstar y los análisis técnicos lo confirman. En cambio tú dices que no, basándote en........¿qué?

Otros juegos no demandantes a 4K nativos son:

Gears 4, Halo 5, Forza Horizon 3 y 4, Anthem, Rise of the Tomb Raider, Forza 7, etc, etc...........y hay más, los juegos a 4K nativos son muchos más de los que crees.
niñodepapa escribió:
Grinch escribió:O sea que los juegos a 4k nativos no van a 4k nativos por que .... pue porque si.


a 4k iran algunos poco demandantes, pero algo como Red Dead Redemptión ni de coña o Battlefield 5. Es que es gracioson todo esto por que simplemente no hay manera de saber a que resolución interna se renderiza sin tener acceso al codigo, motor, o como lo quieras llamar para que nos entendamos.



Está claro que lo estas haciendo adrede, no puede ser que intentes negar lo evidente...

Si juegos a 4k como RDR 2, Anthem, Metro Exodus, FH 4, F7, Dead or Alive 6, Battlefield V, GeoW 4, Shadow of the Tomb Raider, DooM, Dirt Rally 2.0, Hellblade y muchos otros más que hay no son juegos demandantes; apaga y vámonos.

Hablas por no estar callado a todas luces.
Tiburon Man escribió:A mí me la suda sobremanera la diferencia con un pc, pero lo que no es de recibo es que se vea mejor y más nítido el rage 2 en una gtx 960 de 100 pavos que una one x, no se la está aprovechando.

Me está pasando como en mi infancia, que tuve un msx que dejaba por los suelos al spectrum y al final el 90% del catálogo eran ports del mentado

Ponte en esa 960 el Kingdom Come o el No Man Sky, a ver si funcionan como la X.
Esto depende de la desarrolladora, se ha dicho montones de veces.
Que luego sacan el Vampyr con un molesto framepacing en todas las versiones de consolas -si solucionan eso en la versión de Swtich, será la mejor versión del juego- pues...poco se puede hacer.
Lo único aquel rumoreado sistema de mods, que parece que se ha quedado en nada y no se ha vuelto a saber de él.
Triste pero la mayoría de desarrolladoras no van a exprimir esta consola.
IridiumArkangel escribió:
Xlooser escribió:
IridiumArkangel escribió:Que en Pc utilicen las Gpu sin miramientos de manera bruta sin aprovecharla en profundidad, no exime que el RENDIMIENTO que te ofrece una GTX2080Ti sea muy bruto por los mismos números que gasta.

Venga tío, ¿debo tener en cuenta el rendimiento POSIBLE que no se materializa en el mundo real? Ya sé que un juego programado específicamente para una cierta arquitectura dará mejores resultados, aunque menos de lo que esperas, pues los motores hoy en día son muy escalables.


Scarlet puede llegar a ser tan EFECTIVA como una GTX2080Ti

Exacto, pero yo digo que será mejor, mejor de verdad. Los números han de ser suficientes para el resultado que quieres lograr, el resto sólo incrementará el coste.

Si 500 GB/s son suficientes para alimentar el 100% del tiempo a tus 3840 stram processors ¿para qué más? No vas a ganar rendimiento.
Si el planificador de la GPU tiene un límite de "x" wavefronts con "y" elementos para dar curro a "z" stream processors" ¿para qué quieres "z"+500?
Si 64 ROPs son suficientes para escribir un búfer 4K con 4 bytes por píxel ¿por qué vas a montar 128?
Así con todo. Eso sí, los números en el papel van a abrir todas las bocas de los lectores.


Con respecto a la manida mágica optimización de las consolas, otro apunte (y soy usuario de consolas, no tengo Pc gamer, pero las cosas como son). Optimización es cuasi sinónimo de reducción de calidad

Optimización es hacer más con menos, no reducción de calidad. A lo mejor los conceptos deberíamos repasarlos (todos, no sólo tú) y hacer menos caso a la prensa "especializada" que coge una linde y sigue y sigue.


mediante el uso de múltiples técnicas ideadas por los desarrolladores del laborioso arte de engañar al ojo/cerebro humano. Esto es como querer equiparar 4k nativos con 4k chekerboard, ambos dan una salida 4k...

No es una técnica para engañar al cerebro, sino para inferir 4K reales, otra cosa es que lo consiga. ¿Si con una técnica novedosa se escala de 1080p a 4K con IDÉNTICO resultado que renderizar a 4K, estás siendo engañado? Yo creo que no, estás viendo 4K, el camino para conseguirlo es indiferente al resultado.


La optimización en las consolas siempre ha sido una buena baza cuando los hardwares de estas eran soluciones específicas diferentes de la x86 de los Pc que los desarrolladores explotaban focalizándose en sus fuertes hasta el extremo. Hoy en día, las consolas "son Pcs x86" levemente customizados por la marca Z que toque por lo que muchas de las optimizaciones hechas para las Gpu de AMD de estas son aprovechables para las Gpu de AMD en Pc, disminuyendo ese gap de optimización real entre hardware parejos. Nvidia va por libre, pero vamos que ya se encargan ellos de hacer lo propio.

¿Por qué con arquitectura x86 la optimización ya no funciona?

Bueno, a mi no me parece tan leve reducir miles o cientos de miles de instrucciones a 11. Ni reducir las latencias. Ni disminuir el tiempo de las referecias a memoria. Ni comprimir la información de color un 20% sin pérdida de calidad, ni hacer que un ROP escriba 8 bytes por ciclo en vez de 4.....Todas estas optimizaciones ("reducciones de calidad") son por hardware, si en un PC no existen, pues..........no será tan eficiente. Lo que está claro es que si una consola es un PC tal cual, el rendimiento será el mismo.


Las bondades de un hardware único, cerrado y capado están ahí, al igual que las de un hardware abierto y flexible que incluso permite llegar a forzar sus límites con overclock o mejorar los juegos con mods. Cada uno tiene sus pros y contras, y cada vez aunque mantengan sus clásicas características, son hardwares más parecidos al contrario que antaño.

Estoy de acuerdo, yo también lo he dicho varias veces.


Luego hay un parámetro que no se está contemplando, los estudios de desarrollo. Si tienes un estudio de desarrollo que te exprime hasta la extenuación tu hardware, parece increible lo que logran. Luego en cambio otro estudio con el mismo hardware, te hace una medianía técnica. Vease Naughty Dog o Turn 10 como ejemplos prácticos.

También estoy de acuerdo, por eso yo hablo de rendimiento. Al equiparar una consola con un PC de hardware superior ese es el primer parámetro con el que cuento. Las técnicas más novedosas no se normalizarán hasta que las usen en consolas. El RT no será lo cotidiano hasta PS5 y Scarlett. La super-resolución tampoco. El Checkerboard....lo que se te ocurra. Técnicas así se inventan por tener un límite superior y la necesidad de hacer más con menos.


Dale a uno de esos estudios una GTX 2080Ti para desarrollar específicamente, e íbamos a ver realmente de lo que sería capaz un hardware como ese...

Lo sé, sería espectacular. Pero bueno, yo pienso que en Scarlett se verían mejores cosas. Me tragaré mis palabras si resulta que no es así, no tengo ningún problema.

La GPU de Xbox One se basa en la HD7790, ¿crees que la mejor tarjeta de la generación anterior de AMD (Radeon HD6970) es superior a una Xbox One en cuanto a rendimiento? No es compatible con DX12, con lo que ya es menos avanzada.


Por cierto, cuando una RTX usa RT, los shaders se bloquean, no hacen nada. Eso es una cagada del diseño desde cualquier ángulo que mires. Me extrañaría que el RT fuera igual en Scarlett. Sólo arreglando eso, la mejora es sustancial.


Me gustaría contestarte punto por punto en detalle, pero llevo una semana muy ajetreada y apenas tengo tiempo de esplaye.

Claro que hay que ver la capacidad máxima de una 2080Ti de benchmark (es como se comparan las Gpu de Pc punto por punto), aunque en la realidad los desarrolladores no le saquen todo su jugo. Por tu regla de 3, yo podría decir que mi Civic iguala a un Ferrari para conducir por autopista a 120 Km/h que es como vamos todos en la realidad; y no se me ocurre decir tal cosa... [+risas]

Optimización puede llegar a ser "hacer más con menos", pero suele conllevar en muchos de los casos bajada de calidad no jodamos, aunque un ojo no entrenado no se entere. El Hellblade por ejemplo, que lo tenemos a disposición desde su versión Pc hasta la de una Switch. En todas es el mismo juego, pero su calidad global varía por tener que rebajar calidades optimizándolo en base al hardware disponible.

Por cierto, cuando hablo de optimización siempre me refiero a optimización por técnicas de software (checkboard, aplicación de efectos, reflejos, calidad de assets, LoD, etc) con diferente coste computacional y con ello también calidad final, no a las de hardware. Estas últimas si que pueden marcar diferencias notables, como por ejemplo lo ha sido en la Cpu de la XOne X que todo el mundo sigue diciendo que es "la misma mierda de Jaguar que Ps4/XOne"; y está más que demostrado que no es así. Eso sí, estas modificaciones también pueden llegar a ser un lastre si el desarrollador no las tiene en cuenta/aprovecha, y para muestra la ESRAM de la XOne (mira, otro caso con múltiples ejemplos a principio de gen donde no se le sacaba todo el jugo real al hardware, y no por ello decimos que la X360 estaba a la altura de XOne porque al no aprovechar la ESRAM sacaban juegos a 720p).

Y sí, la 2080Ti tiene errores de diseño que seguro que los siguientes modelos mejorarán, pero sigue siendo una mala burra pese a ellos.

Para acabar, mira que he estado casi siempre de acuerdo en todo lo que dices porque además lo razonas muy acertadamente, pero en este caso con la 2080Ti siento discrepar. Ojalá tengas razón y las next-gen equiparen las capacidades de esa bestia parda, yo no lo veo...

Saludos


- Vale, entiendo. Yo hablo a efectos prácticos, que es lo que realmente importa. Sí, un juego programado para una RTX2080TI probablemente sea mejor técnicamente que uno para Scarlett, siempre hablando de 4K nativo y sin RT. Al igual que con una GTX1070 y la X, cuento con la optimización de una plataforma cerrada y la menor optimización típica de un PC, por eso digo que el rendimiento será similar.

Un juego con RT, probablemente vaya más fluido en Scarlett (por ese problemilla). Y si Scarlett finalmente puede acelerar DirectML por hardware, entonces ni siquiera el DLSS podrá evitar que se vea mejor en Scarlett.

Si tienes dudas del "truco" de la super-resolución, mira los resultados del DLSS en los pocos juegos que lo tienen implementado, por ejemplo, en Final Fantasy XV. DLSS renderiza a 1440p y escala a 4K mediante Deep Learning. La salida 4K es muy buena, idéntica en nitidez con el 4K nativo. Imagínate que Scarlett renderizara a 1080p.

Yo veo factible el acelerar DirectML por hardware porque es casi obligatorio para xCloud y Scarlett, según parece, será una versión en local de los blades Anthem. No se puede renderizar en 4K en el servidor, es muy costoso y muy lento. Para minimizar las latencias hay que renderizar rápido. Además, ¿RT a 4K? No lo veo.


- Optimización es un concepto que se ha tergiversado, como los 4K dinámicos. Al igual que "4K dinámicos" no es renderizar en 1440p y no llegar a 4K en la vida, optimizar no es recortar. Unos ejemplos de optimización:

Pre-culling: es quitar la geometría de la escena que no se verá porque esos elementos están detrás de otros. Y te preguntas ¿por qué lo voy a calcular/texturizar? ¿No es más eficiente quitarlo?

Compresión de color Delta (DCC): la X en realidad no tiene 326 GB/s de ancho de banda "física" (creo que en el SDK Microsoft especifica 285), pero el DCC hace que la información de color sea un % menor y que no se pierde ni pizca de calidad al descomprimir.

Super-resolución: escalar a una determinada resolución partiendo de una resolución menor mediate Deep Learning. No hay magia, para que 1080p se pueda escalar a 4K, primero el motor debe "aprender" y renderizar a 4K el juego en el servidor; luego la consola aplica lo "aprendido" y escala a 4K desde 1080p. Por eso el resultado puede ser tan bueno. Nvidia, por ejemplo, lo hace en su red GCP de Google Cloud.


- Sí, la RTX2080TI es muy burra y la RTX3080 será bastante mejor al ser de 7 nm y tener mejor RT. Ya la RTX3080TI será más que espectacular. Y si tienen la "arquitectura del futuro de las GPUs" pues..........sin comentarios.


- No íbamos a estar de acuerdo en todo. Como siempre, un placer debatir contigo. Confía en que Scarlett renderice a 1080p (esperemos).
@niñodepapa

Buenas tardes, te voy a pedir que, por favor, cambies el tono y las formas de postear en este subforo.

De lo contrario voy a tener que banearte.

Un saludo.
Ahora el RDR2 no va a 4K cuando todo el mundo ha contado px y lo es.

Ea ea, ya se que es un shock pero bueno ya pasó. Mejor asumirlo y a seguir con la vida.
Raypollas vamos a ver en la X
Viendo el rendimiento de la prueba técnica en la tarjeta más cercana (en rendimiento práctico, que nadie se ofenda) a la X, los que tengamos esta consola podemos estar de enhorabuena; en Gears 5 el software ha exprimido el hardware como ningún otro, aunque hayan utilizado trucos visuales (que, por otro lado, ya era hora).



Me gustaría ver un análisis de DF para saber qué ha hecho The Coalition en X, porque no me lo explico:

- ¿Reconstrucción del búfer 4K desde una resolución menor?
- ¿Assets en Medio (o menores)?
- ¿En realidad es 1080p pese a que se vea de maravilla?
Así de potente luce Gears 5 en PC a 4K y con todas las opciones gráficas en Ultra
Tres vídeos corriendo sobre una tarjeta grafica GeForce RTX2080Ti muestran las enormes capacidades visuales del nuevo Gears of War.

https://www.3djuegos.com/noticias-ver/1 ... todas-las/
THANOS-TITAN-Z escribió:Así de potente luce Gears 5 en PC a 4K y con todas las opciones gráficas en Ultra
Tres vídeos corriendo sobre una tarjeta grafica GeForce RTX2080Ti muestran las enormes capacidades visuales del nuevo Gears of War.

https://www.3djuegos.com/noticias-ver/1 ... todas-las/

Es posible que éste sea el primer juego en el que hayan pensado en Scarlett y demás hardware futuro. Los assets "Ultra" son muy demandantes.

En el benchmark anterior, tan sólo bajando

- El SSR (Screen Space Reflections) de Insane a Ultra
- La oclusión ambiental, niebla volumétrica y lens flare de Ultra a High.
- Calidad de las animaciones de "Best" a "Auto".

se consiguen 9 fps más a 1080p, a 4K el aumento sería mayor. El futuro parche de Scarlett sería sencillo, tan sólo desbloquear el Ultra de la versión de PC.
Ayer mismo me hice con una XONE X y tengo un PC que considero pepino.
La verdad que aparte de los FPS mas bajos y y no tener RayTracing da muy buen rendimiento, ¿sera porque la X pesa 3 veces mas que la S que me quite?.
En cuanto al raytracing es una pasada y es el futuro o ya el presente porque con mi RTX2060 y los últimos parches/ drivers de Nvidia ya puedo jugar a todo en 2K muy fluido con raytracing y DLSS con el pc mi firma.
Ojito como se ven el BFV, Metro Exodus, Shadow of the Tomb Raider,etc. es otro nivel de realismo.
Pues fijaron que yo casi preferiría que implementaran bien el HDR y no tanto RT. Porque el HDR en los juegos da bastante asco la verdad.
Yo creo q esta generación llega demasiado pronto. La X se puede estirar al menos dos años. La x a día de hoy permite jugar casi como en pc
X y scarlet deberian compartir catalogo los primeros años.
@kikomanco Aquí podéis dar por saco los PCros!!!!

Este artículo es interesante y curioso.
Los de DF han simulado equipos para imitar las futuras consolas y fijaos las GPU que asignan a cada una.

Simulando la hipotética Xbox Scarlett
CPU Ryzen 7 3700X
GPU Radeon RX 5700 XT

Simulando la hipotética PlayStation 5
CPU Ryzen 7 3700X
GPU AMD Radeon RX 5700

https://generacionxbox.com/potencia-xbo ... y-ps5/amp/

Han llegado a la conslusion de que Scarlett será el doble de X y PS5 el triple de Pro. 12Tf VS 12,6Tf pero Scarlett con GPU más avanzada, (XT)
Yo acabo de echar un ojo y para jugar a 1080p los PCs siguen teniendo precios inflados en comparación a la X.
Lammothh escribió:@kikomanco Aquí podéis dar por saco los PCros!!!!

Este artículo es interesante y curioso.
Los de DF han simulado equipos para imitar las futuras consolas y fijaos las GPU que asignan a cada una.

Simulando la hipotética Xbox Scarlett
CPU Ryzen 7 3700X
GPU Radeon RX 5700 XT

Simulando la hipotética PlayStation 5
CPU Ryzen 7 3700X
GPU AMD Radeon RX 5700

https://generacionxbox.com/potencia-xbo ... y-ps5/amp/

Han llegado a la conslusion de que Scarlett será el doble de X y PS5 el triple de Pro. 12Tf VS 12,6Tf pero Scarlett con GPU más avanzada, (XT)



Ya dirán oficialmente lo que monta cada máquina,mientras todo son pajas mentales.

Al fin y al cabo que van a decir páginas como Somosxbox,Generacionxbox,Dualshockers o Somos Playstation,barrer para el lado que les interesa diciendo que la suya será mejor que la otra.
451 respuestas
16, 7, 8, 9, 10