logame escribió:@Zeta V Entiendo entonces que un juego en resolución VGA si fluye a 60fps, para fluir a 60 fps en resolución 16K requiere una GPU 430 veces más potente.... Ok
Entiendo entonces que esto aplica para renderizar en pantalla exactamente la misma cantidad de polígonos con exactamente las mismas texturas, independientemente de la complejidad, a doble de píxeles en pantalla, doble de potencia gráfica necesita, no?
Una cosa, cuando dices "La potencia de la Gpu de Series X es como 14-16 veces la de One y entre el doble y el triple de One X" no sé de donde sacas el cálculo, yo tengo entendido que es 2 veces One X y unas 9 veces la de One. Creo que lo has inflado un poquito.
Pero bueno, yendo a ejemplos prácticos es un fastidio saber que no vamos a poder ver algo con exactamente la misma calidad gráfica de God of War a 60 fps y 4K en la nueva generación teniendo en cuenta que este juego exprime PS4 al máximo y ni SeriesX ni PS5 son esas 8 veces más potentes que PS4 que sería necesario, ¿no crees?
Primero de todo, pausa.
Como ya he dicho en mi anterior comentario, creo que estamos hablando de diferentes perspectivas y de ahí viene la confusión entre ambas partes y no quiero liar el tema porque es muy complejo.
No es lo mismo hablar desde un criterio a grandes rasgos, en términos generacionales, en grandes saltos, en épocas, metiendo todo en mismo saco, a comparar un hardware puntual y concreto con unas características concretas a otras.
Seria como hablar de la teoría de Newton y la de Einstein, que en apariencia son incompatibles, pero las dos son correctas, solo que una se aplica de manera global y la otra va a casos pequeños. (espero que se entienda lo que quiero decir).
Desde el punto de vista general, en el que valoras un solo salto (digo uno porque si te vas a mas escalones generacionales la cosa cambia mucho porque también cambian los gráficos), si es mas o menos valido hablar de que para pasar de 30 a 60 fps necesitas doble de Cpu y Gpu (básicamente estas renderizando el doble) y de que necesitas una Gpu 4x para pasar de 1080p a 4k (tienes 4 veces mas pixeles). Esta regla de 3 es mas o menos valida en este contexto, que por cierto, no me he inventado yo los números, es una medida que se usa habitualmente en internet cuando se valoran estas cosas. (también tiene que ir todo en consonancia a ese salto, como la RAM, no solo la Cpu y la Gpu). Pero hay que tener cuidado en cuando y como la usas. Estamos hablando de resoluciones y frames pero a un nivel grafico vamos a decir mas o menos parejo.
Ahora bien, si vamos hablar de un hardware con nombre y apellidos y lo comparamos con otro, entonces la regla de 3 no es valida para nada (en esto tienes razón). Entran muchos factores en cuenta y los rendimientos "nunca" van a ser ni lineales, ni proporcionales. Influye el diseño global del hardware, las arquitecturas, las frecuencias, cuellos de botella, etc. En este caso los flops no rinden de la misma manera entre un caso y otro. De hecho yo mismo hable varias paginas atrás de como One X con 40% mas flops de Gpu ofrece casi doble resolución que Ps4 Pro.
Asi que dicho esto, pido disculpas si he creado confusión por no especificar a que me estaba refiriendo.
Ahora voy con lo que planteas. La respuesta evidentemente no te la puedo dar, 16k es una resolución exageradamente alta, que para cuando llegue, a saber el nivel grafico por donde andara. Pero vamos, que viendo como van las cosas, será bastante mayor a eso que dices.
Resolucion VGA son 307.000 pixeles
Resolucion 16k son 132.700.000 pixeles
Es un salto de 400 y pico.
El salto de Wii (que tiene resolución VGA) a One X (por ejemplo que ya es 4K) en potencia de Gpu, es de 500 veces. Claro en un salto en el que aparte de añadir 28 veces mas resolución, añades infinidad de recursos gráficos que consumen mucho, como iluminación y sombras infinitamente mejores, mas polígonos, texturas con relieve, mas de todo, etc, pues la regla de 3 de antes tampoco cuadra.
Asi que dicho todo esto quiero pedir disculpas por si antes hubo un mal entendido. Igual digo las cosas dando por hecho que se entiende en que contexto las digo y otra persona al leerlo puede interpretarlo de una manera diferente a la que yo pretendía decir. Digamos que ninguno teníamos razón, o que la teniamos los dos, solo que cada uno dentro de un contexto diferente.
Sobre tu pregunta a la comparación entre One, One X y SX. Los Teraflops son 1,3; 6 y 12. Lo que pasa que la arquitectura de SX es mas moderna que One X, que a su vez es mas moderna que One. Al ser mas moderna, permite poner en pantalla mas cosas, o de mas calidad por cada flop de potencia. Osea cada flop rinde mas. No recuerdo los % de diferencia en el rendimiento de una y otras, pero significa que SX aunque son 12, en realidad equivaldrian pues a unos 14-16 veces como los de One (mas o menos eh?) y con respecto a One X que los numeros brutos son el doble, en realidad es mas del doble. Digo los numeros de manera orientativa asi de memoria.
Sobre God of War. En la posible secuela es evidente que los gráficos los van a mejorar, ahora, yo no esperaria 4k y 60 fps en ese tipo de juego. Dudo mucho que la potencia de para subir la resolución 4 veces, duplicar los frames y añadirle los gráficos nuevos que van a consumir mas. De hecho el AC Valhalla en SX es 4k y 30 fps. Vale que es un juego intergeneracional y que no va a aprovechar la potencia de las nuevas consolas, pero ya nos estan diciendo por donde van a ir los tiros. God of war, tal cual de Ps4, si se lo curran si que mas o menos da para lanzarlo en Ps5 a 4k y 60 fps. Estamos hablando de casi 6 veces la potencia de Gpu, hablando de flops, pero los flops de Ps5 rinden mas que los de Ps4 y la Cpu es mucho mejor, la Ram es mucho mejor... en principio no veo descabellado que ese juego lo lancen en plan remaster a 4k y 60 fps.