XBOX Series X

IridiumArkangel escribió:
Xlooser escribió:
IridiumArkangel escribió:Viendo este video, claramente el siguiente paso de mejora en el sector es el raytracing...

https://youtu.be/vY0W3MkZFs4

Ése es el motivo por el que algunos decimos que veremos RT en las siguientes consolas, que es el siguiente paso para una mejora notable por la gran mayoría de usuarios. Una consola 4 veces más potente (supongamos que es factible) que Xbox One X, tendría menos impacto a nivel visual que Xbox One X frente a Xbox One.


Edito: ¿es imposible el RT sin unidades especializadas y en 2020? Echad un vistazo a un paper de 2014 en el que sólo se utilizan los registros de la GPU.

We choose to use a hypothetical GPU similar to AMD’s Hawaii (R9-290X) as the example platform for this paper.


https://pdfs.semanticscholar.org/26ef/909381d93060f626231fe7560a5636a947cd.pdf


El tema será que capacidad de RT tendrá ese posible hardware next-gen con en torno a 12 Teraflops de potencia por 500€. Se me antoja que sólo veremos un pseudo RT muy limitado en el mejor de los casos...


Pseudo RT no sería, si meten hardware es para hacer los cálculos que utiliza el RT.

La limitación en todo caso seria la cantidad de rayos que calcule, la misma limitante del hardware actual.
IridiumArkangel escribió:
Xlooser escribió:
IridiumArkangel escribió:Viendo este video, claramente el siguiente paso de mejora en el sector es el raytracing...

https://youtu.be/vY0W3MkZFs4

Ése es el motivo por el que algunos decimos que veremos RT en las siguientes consolas, que es el siguiente paso para una mejora notable por la gran mayoría de usuarios. Una consola 4 veces más potente (supongamos que es factible) que Xbox One X, tendría menos impacto a nivel visual que Xbox One X frente a Xbox One.


Edito: ¿es imposible el RT sin unidades especializadas y en 2020? Echad un vistazo a un paper de 2014 en el que sólo se utilizan los registros de la GPU.

We choose to use a hypothetical GPU similar to AMD’s Hawaii (R9-290X) as the example platform for this paper.


https://pdfs.semanticscholar.org/26ef/909381d93060f626231fe7560a5636a947cd.pdf


El tema será que capacidad de RT tendrá ese posible hardware next-gen con en torno a 12 Teraflops de potencia por 500€. Se me antoja que sólo veremos un pseudo RT muy limitado en el mejor de los casos...

¿A qué te refieres con pseudo RT limitado? ¿A pocos efectos? Porque que el pipeline sea Rasterización + RT no quiere decir que sea de pacotilla, sino que es necesario por la forma en que se procesan los gráficos a tiempo real.

Probablemente los primeros juegos sólo implementen (como mucho) iluminación global, reflejos, oclusión ambiental y contact shadows, pero el avance será muuuuuy grande.
@Xpider_MX @Xlooser pues me refiero a una técnica de RT simplificada. En vez de hacer cálculo de rayos a tiempo real en coma flotante (con un número de rayos modesto por supuesto, bastante menor que el de una 2080Ti a día de hoy), hacer que lance los rayos y haga un cálculo simplificado en base a una tabla predefinida por poner un ejemplo.

Me consta que los estudios están investigando sus "propias soluciones" para ofrecer RT, y creo que en la próxima generación aún tendremos un hardware demasiado justo para poder ofrecer RT real a la altura de una RTX de alta gama/media. Me huelo que en el marketing no faltará la palabra "raytracing", pero que en realidad tendremos un pseudo efecto del mismo realmente...

No se, igual me equivoco, pero tengo una corazonada por detalles que he ido leyendo aquí y allá. Sólo estoy especulando.
creo que en la próxima generación aún tendremos un hardware demasiado justo para poder ofrecer RT real a la altura de una RTX de alta gama/media.


¿y entonces para qué sería el supuesto hardware dedicado? se supone que para eso ¿no? y si estamos hablando de consolas con mas de 10Tf, al menos Anaconda, que se supone que MS intenta crear de nuevo algo muy potente, no veo porque no pueda estar a la altura de una RTX.

No se la de Sony, pero si los rumores son ciertos, no veo porqué no pueda Anaconda con RT.
IridiumArkangel escribió:@Xpider_MX @Xlooser pues me refiero a una técnica de RT simplificada. En vez de hacer cálculo de rayos a tiempo real en coma flotante (con un número de rayos modesto por supuesto, bastante menor que el de una 2080Ti a día de hoy), hacer que lance los rayos y haga un cálculo simplificado en base a una tabla predefinida por poner un ejemplo.

Me consta que los estudios están investigando sus "propias soluciones" para ofrecer RT, y creo que en la próxima generación aún tendremos un hardware demasiado justo para poder ofrecer RT real a la altura de una RTX de alta gama/media. Me huelo que en el marketing no faltará la palabra "raytracing", pero que en realidad tendremos un pseudo efecto del mismo realmente...

No se, igual me equivoco, pero tengo una corazonada por detalles que he ido leyendo aquí y allá. Sólo estoy especulando.

Puede que algunos juegos simulen el efecto, pero estoy convencido de que en la mayoría de casos será RT de verdad. Como dices, será modesto y limitado, pero RT al fin y al cabo.

Las pruebas que se han hecho y de las que se hablan, es de 1 rayo por cada 4 píxeles y por efecto, cuando en una película de animación tienes decenas de miles de rayos por píxel, imagina la diferencia de calidad. Los dos seguirán siendo RT pese a ello.

También creo que te sorprenderá cómo Scarlett quedará en comparación con una RTX, aunque no tenga unidades especializadas.


Edito: la diferencia entre emular el RT y la iluminación precalculada de ahora debe ser ínfima.
Estoy seguro que al menos los juegos que salgan también en PC usarán las supuestas unidades de RT.

No hay que olvidar que tanto el PC como la consola usan DirectX, y en DirectX ya existe una API para Ray Tracing (llamada Direct Ray Tracing), y es de suponer que en Anaconda Direct RT hará uso de esas supuestas unidades.
La especificación DXR no usa unidades RT, sino que es la propia GPU la que hace esa función.

Lo que hace un RT Core es recorrer una estructura de datos en forma de árbol, nada más, todo el peso sigue siendo de los Shaders, que son los calculan el ángulo de cada rayo y finalmente modifican el color del píxel dependiendo de la iluminación. Lo que pasa, es que recorrer esa estructura es el 75-80% del tiempo, y una GPU ha demostrado ser ineficiente para esa tarea.

En el paper que puse antes, hablan de los registros de la GPU para hacer exactamente lo mismo que hace un RT Core. De hecho, es probable que Nvidia haya basado los RT Cores en ese método.

Ya veremos con qué sale Microsoft, pero es posible implementar RT con una GPU "normal" con mucho más rendimiento del que se presupone en los foros. La única duda que tengo es la implementación del DirectML, y si está, podemos dar por hecho que el RT será mejor de lo que pensamos.
Si suena que están pensando liberar la carga de las físicas a la GPU con un chip dedicado, es por algo.

One fue HDR 4K, está claro que solo con los 60fps no nos venden hard nuevo. Raytracing básico tienen que meter en Anaconda sí o sí.
Lammothh escribió:Si suena que están pensando liberar la carga de las físicas a la GPU con un chip dedicado, es por algo.

One fue HDR 4K, está claro que solo con los 60fps no nos venden hard nuevo. Raytracing básico tienen que meter en Anaconda sí o sí.

Esa es una de las claves, no creo que Microsoft vendiera muchas Scarlett para jugar a lo mismo que en Xbox One X pero a 60 fps y con assets ultra siempre en vez de un equilibrio.

Los videojuegos necesitarán subir el listón, en IA, físicas y gráficos. La manera que tendrán a partir de ahora de mejorar los gráficos será el RT, porque la rasterización pura sólo ofrecerá mejoras marginales en relación a sus requerimientos.
Xlooser escribió:
IridiumArkangel escribió:@Xpider_MX @Xlooser pues me refiero a una técnica de RT simplificada. En vez de hacer cálculo de rayos a tiempo real en coma flotante (con un número de rayos modesto por supuesto, bastante menor que el de una 2080Ti a día de hoy), hacer que lance los rayos y haga un cálculo simplificado en base a una tabla predefinida por poner un ejemplo.

Me consta que los estudios están investigando sus "propias soluciones" para ofrecer RT, y creo que en la próxima generación aún tendremos un hardware demasiado justo para poder ofrecer RT real a la altura de una RTX de alta gama/media. Me huelo que en el marketing no faltará la palabra "raytracing", pero que en realidad tendremos un pseudo efecto del mismo realmente...

No se, igual me equivoco, pero tengo una corazonada por detalles que he ido leyendo aquí y allá. Sólo estoy especulando.

Puede que algunos juegos simulen el efecto, pero estoy convencido de que en la mayoría de casos será RT de verdad. Como dices, será modesto y limitado, pero RT al fin y al cabo.

Las pruebas que se han hecho y de las que se hablan, es de 1 rayo por cada 4 píxeles y por efecto, cuando en una película de animación tienes decenas de miles de rayos por píxel, imagina la diferencia de calidad. Los dos seguirán siendo RT pese a ello.

También creo que te sorprenderá cómo Scarlett quedará en comparación con una RTX, aunque no tenga unidades especializadas.


Edito: la diferencia entre emular el RT y la iluminación precalculada de ahora debe ser ínfima.


Pues veremos. Ya saldrán en su momento análisis en detalle de los juegos que salgan y a ver de que trucos gráficos tiran. Me da en la nariz que saldrán con algo "ingenioso" para solucionar la papeleta al respecto.

Se vienen unos meses muy interesantes entre rumores, juegos de final de ciclo y la posible info que se pueda ir filtrando de las next-gen... [Ooooo]
Pero no lo entiendo, se dice que la siguiente Xbox tendrá 12 teraflops, una rtx2080 ti tiene 13,4 y la rtx 2080 10.1, no veo por qué no podrá hacer la Xbox lo mismo de lo que hemos visto hasta ahora.
Tanto medirse el tamaño TF para que después llegue XCloud.+5G y follarse a Scarlet a ps5 a rtx3080ti y a la madre que los parió a todos.
Xboxman escribió:Pero no lo entiendo, se dice que la siguiente Xbox tendrá 12 teraflops, una rtx2080 ti tiene 13,4 y la rtx 2080 10.1, no veo por qué no podrá hacer la Xbox lo mismo de lo que hemos visto hasta ahora.


Mmm...y que hemos visto hasta ahora?

Lammothh escribió:Tanto medirse el tamaño TF para que después que llegue XCloud.+5G y follarse a Scarlet a ps5 a rtx3080ti y a la madre que los parió a todos.


Un servicio streaming follarse en calidad de imagen a un hardware con señal directa a la tv!? Tendré que verlo en vivo y en directo para creerlo...
Microsoft says 'no one's even close to what we're offering' in a cloud market that Amazon and Google are only just starting to enter

Microsoft dice "nadie está ni siquiera cerca de lo que estamos ofreciendo" en un mercado en la nube en los que Amazon y Google apenas están empezando a entrar

Palabras de Satya Nadella, nuestro nuevo dios.
TCR escribió:Microsoft says 'no one's even close to what we're offering' in a cloud market that Amazon and Google are only just starting to enter

Microsoft dice "nadie está ni siquiera cerca de lo que estamos ofreciendo" en un mercado en la nube en los que Amazon y Google apenas están empezando a entrar

Palabras de Satya Nadella, nuestro nuevo dios.


Madre mia lo que se viene! Como diria Manolo Lama en sus buenos dias: Ay mi madre el bichooo! [tadoramo]
TCR escribió:Microsoft says 'no one's even close to what we're offering' in a cloud market that Amazon and Google are only just starting to enter

Microsoft dice "nadie está ni siquiera cerca de lo que estamos ofreciendo" en un mercado en la nube en los que Amazon y Google apenas están empezando a entrar

Palabras de Satya Nadella, nuestro nuevo dios.

Eso me suena a DirectML. El hardware dedicado para el pre-procesamiento (pre-culling y comandos del pad) y después escalar con Deep Learning marcará la diferencia. Stadia lo tendrá muy difícil para destacar.
Si no pueden competir por hardware ya competirán por software, comprando exclusividades. Pobres Google o Amazon, no lo son precisamente.
Aún somos algunos que miramos el catálogo y no la marca o los teraflops.
Xlooser escribió:
TCR escribió:Microsoft says 'no one's even close to what we're offering' in a cloud market that Amazon and Google are only just starting to enter

Microsoft dice "nadie está ni siquiera cerca de lo que estamos ofreciendo" en un mercado en la nube en los que Amazon y Google apenas están empezando a entrar

Palabras de Satya Nadella, nuestro nuevo dios.

Eso me suena a DirectML. El hardware dedicado para el pre-procesamiento (pre-culling y comandos del pad) y después escalar con Deep Learning marcará la diferencia. Stadia lo tendrá muy difícil para destacar.



Entiendo que por la misma regla ps5, no podrá beneficiarse de DirectML por ser API de Microsoft, a pesar de llevar GPU AMD no?
Lammothh escribió:
Xlooser escribió:
TCR escribió:Microsoft says 'no one's even close to what we're offering' in a cloud market that Amazon and Google are only just starting to enter

Microsoft dice "nadie está ni siquiera cerca de lo que estamos ofreciendo" en un mercado en la nube en los que Amazon y Google apenas están empezando a entrar

Palabras de Satya Nadella, nuestro nuevo dios.

Eso me suena a DirectML. El hardware dedicado para el pre-procesamiento (pre-culling y comandos del pad) y después escalar con Deep Learning marcará la diferencia. Stadia lo tendrá muy difícil para destacar.



Entiendo que por la misma regla ps5, no podrá beneficiarse de DirectML por ser API de Microsoft, a pesar de llevar GPU AMD no?

Sony tendrá que sacarse de la manga otro algoritmo de super-resolución para GNM. Pero vamos, que el trabajo sucio lo hace la gente de Vulkan, Sony sólo adaptaría.

En cualquier caso, Microsoft está muy por delante en cuanto a software, a ver si con Nadella ahora se lo toman en serio. Creo que ya lo hicieron con la X y en Anaconda volverán a "customizar" el hardware.
Customizaron el jaguar porque a pelo no daba la talla. Ahora que meten un Zen2 igual lo dejan tal cual.
Luzbel_bcn escribió:Si no pueden competir por hardware ya competirán por software, comprando exclusividades. Pobres Google o Amazon, no lo son precisamente.
Aún somos algunos que miramos el catálogo y no la marca o los teraflops.


No, pobres no son, pero son novatos en este ámbito, y Sony, Nintendo y Microsoft tienen ya años de experiencia. Tienen franquicias ultra conocidas y exitosas, y muchos fans.

Precisamente competir por software es mucho mas dificil que competir por hardware.

@Lammothh Lo tienen que customizar si o si, ya solo el tener que meterlo en la APU implica customización.

Aparte, si van a meter hardware especializado, si o si hay que customizar los componentes para que se comuniquen adecuadamente.
Xpider_MX escribió:
Luzbel_bcn escribió:Si no pueden competir por hardware ya competirán por software, comprando exclusividades. Pobres Google o Amazon, no lo son precisamente.
Aún somos algunos que miramos el catálogo y no la marca o los teraflops.


No, pobres no son, pero son novatos en este ámbito, y Sony, Nintendo y Microsoft tienen ya años de experiencia. Tienen franquicias ultra conocidas y exitosas, y muchos fans.

Precisamente competir por software es mucho mas dificil que competir por hardware.


Creía que Ubi(por poner un ejemplo de Third party) va por libre y si viene Google/Amazon y le da unos dineros por salir solo su nuevos Assassins en sus chorradas streaming antes que en otro sitio, creía que era fácil, y creo que alguna vez se ha hecho ya.
Luzbel_bcn escribió:
Xpider_MX escribió:
Luzbel_bcn escribió:Si no pueden competir por hardware ya competirán por software, comprando exclusividades. Pobres Google o Amazon, no lo son precisamente.
Aún somos algunos que miramos el catálogo y no la marca o los teraflops.


No, pobres no son, pero son novatos en este ámbito, y Sony, Nintendo y Microsoft tienen ya años de experiencia. Tienen franquicias ultra conocidas y exitosas, y muchos fans.

Precisamente competir por software es mucho mas dificil que competir por hardware.


Creía que Ubi(por poner un ejemplo de Third party) va por libre y si viene Google/Amazon y le da unos dineros por salir solo su nuevos Assassins en sus chorradas streaming antes que en otro sitio, creía que era fácil, y creo que alguna vez se ha hecho ya.


Si fuese así, MS ya tuviese todos los AC exclusivos.

No, no es tan fácil. Pagar por un juego exclusivo no es difícil, es caro pero no dificil. Pagar para que una saga que vendes en 3 plataformas (pc, ps4 y xbox one) y vende bastante bien, salga solo en una es bastante difícil.

Es mas fácil que un estudio independiente te cree una ip nueva a que una publisher del tamaño de EA o Ubi te saque sus juegos exclusivos a tu plataforma.

No es lo mismo desarrolladora que publisher. Precisamente Ubi, EA, Capcom, etc. son publishers, y supongo que lo que menos quieren es "casarse" con alguna plataforma y perder ventas y perder "amistades".
Pues entonces Xcloud Win4ever.
Luzbel_bcn escribió:Pues entonces Xcloud Win4ever.


XCloud lo que hará, al menos al principio, es generar valor agregado para los usuarios de la plataforma, es más fácil ganar adeptos si tu plataforma ofrece esos "pluses" (gamepass, retro, xcloud, etc).

No creo que MS vaya a competir directamente con Google, al menos en un inicio.
Luzbel_bcn escribió:Si no pueden competir por hardware ya competirán por software, comprando exclusividades. Pobres Google o Amazon, no lo son precisamente.
Aún somos algunos que miramos el catálogo y no la marca o los teraflops.

Claro, y ms no tiene dinero ni compra estudios...
Google no tiene estudios y puede tener exclusivos; Xbox Game Studios, 13..........y parece que no tendrá. Jodó, cuánto cuesta decir que algo se está haciendo bien.
ForzaThor escribió:
Luzbel_bcn escribió:Si no pueden competir por hardware ya competirán por software, comprando exclusividades. Pobres Google o Amazon, no lo son precisamente.
Aún somos algunos que miramos el catálogo y no la marca o los teraflops.

Claro, y ms no tiene dinero ni compra estudios...


Claro todos pueden comprar estudios y no solo Microsoft, por eso lo digo, no solo compra Micro, las otras, y más la novata de Google para entrar con buen pie (y leyendo lo del todo poderoso XCloud) pues si Google no puede competir por hardware algo tendrá que llamar la atención a la gran Microsoft y su nube, quizás compitiendo por calidad de juegos.
@Xlooser @Xpider_MX De verdad vais a entrar?

No os dais cuenta de que cada vez que algo suena bien o muy bien hecho por parte de MS pasan estas cosas en el foro de Xbox? Yo solo llevo dos años por aquí pero vamos que se en venir ciertas cosas de lejos.
Noctisblue está baneado por "Saltarse el ban con un clon"
NO ESPEREIS MUCHO RT en la nueva generacion. Y eso que ambas consolas tanto sony como microsofot andaran por los 12 a 14 tflops. Que sera insuficiente para algo asi.
Como bien dice el compañero sera mas pseudoRT que otra cosa. En consolas siempre tendremos eslogan y publicidad como si fuera que solo las consolas mueven eso.
No espereis nada bueno RT hasta bien llegado a lo 25tflosp con 32gb o mas.

Ahora que gracias a esa tecnologia se veran mejor los juegos, no en todos ni en todo momento. Pero en lo general si es una mejora, pero sera bastate leve alemnos en consolas. En dos años en PC ira mejor la cosa PC de ULTRAMEGA ALTA GAMA.

No dudo que el trabajo que van ahcer las compañias con sus respectivos motores graficos añadiendo "RT" para consolas no sean convicentes, pero puro marketing y tonterias. pero todo se empieza por algo y acabamos de empezar.
@Noctisblue a día de hoy es así, RT se resiste y humillla GPUs actuales de 1300€, pero la tecnología avanza, el hardware avanza, las técnicas de optimización de hard/soft/drivers/APIS..... avanzan.
Eaniel Kashal escribió:@Xlooser @Xpider_MX De verdad vais a entrar?

No os dais cuenta de que cada vez que algo suena bien o muy bien hecho por parte de MS pasan estas cosas en el foro de Xbox? Yo solo llevo dos años por aquí pero vamos que se en venir ciertas cosas de lejos.

Es cierto, y ya conocemos quiénes.


@Noctisblue desarróllalo por favor. ¿Por qué se necesitan 25 TF y 32 GB de memoria para el true RT? ¿Qué es el pseudo-RT? Ten en cuenta que el "pseudo-RT" es lo que hay ahora.
PowerMore está baneado por "clon de usuario baneado"
Noctisblue escribió:NO ESPEREIS MUCHO RT en la nueva generacion. Y eso que ambas consolas tanto sony como microsofot andaran por los 12 a 14 tflops. Que sera insuficiente para algo asi.
Como bien dice el compañero sera mas pseudoRT que otra cosa. En consolas siempre tendremos eslogan y publicidad como si fuera que solo las consolas mueven eso.
No espereis nada bueno RT hasta bien llegado a lo 25tflosp con 32gb o mas.

Ahora que gracias a esa tecnologia se veran mejor los juegos, no en todos ni en todo momento. Pero en lo general si es una mejora, pero sera bastate leve alemnos en consolas. En dos años en PC ira mejor la cosa PC de ULTRAMEGA ALTA GAMA.

No dudo que el trabajo que van ahcer las compañias con sus respectivos motores graficos añadiendo "RT" para consolas no sean convicentes, pero puro marketing y tonterias. pero todo se empieza por algo y acabamos de empezar.


Punto en el que dejé de leer.
A ver si nos aclaramos, si algo es RT, pues es RT, no existe un "pseudo RT", si se calculan los rayos es RT.

La iluminación/sombreado pre-backed es lo que se ha utilizado hasta ahora, con algunas soluciones como el cone voxel, pero no RT.
@PowerMore eres Morepower pero al revés?
Xlooser escribió:@Noctisblue desarróllalo por favor. ¿Por qué se necesitan 25 TF y 32 GB de memoria para el true RT? ¿Qué es el pseudo-RT? Ten en cuenta que el "pseudo-RT" es lo que hay ahora.

Cuando presentaron la demo de Star Wars con Ray Tracing en tiempo real dijeron que estaba hecha con un ordenador de 60.000$ y 480 Tensor TFLOPs de potencia.

En aquel momento Tim Sweeney dijo que con 25 tflops ya podían empezar a dar una apariencia realista a los juegos mediante Ray Tracing.

Los tiros pueden ir por ahí. Con la potencia actual se puede ofrecer Ray Tracing simplificado, hasta dentro de varios años no empezaremos a tener RT en condiciones.
MMiX escribió:
Xlooser escribió:@Noctisblue desarróllalo por favor. ¿Por qué se necesitan 25 TF y 32 GB de memoria para el true RT? ¿Qué es el pseudo-RT? Ten en cuenta que el "pseudo-RT" es lo que hay ahora.

Cuando presentaron la demo de Star Wars con Ray Tracing en tiempo real dijeron que estaba hecha con un ordenador de 60.000$ y 480 Tensor TFLOPs de potencia.

En aquel momento Tim Sweeney dijo que con 25 tflops ya podían empezar a dar una apariencia realista a los juegos mediante Ray Tracing.

Los tiros pueden ir por ahí. Con la potencia actual se puede ofrecer Ray Tracing simplificado, hasta dentro de varios años no empezaremos a tener RT en condiciones.

Supuse que esas palabras de Tim Sweeny se tergiversaron, porque así puestas quedan para un titular sensacionalista muy chulo (no lo digo por ti). Y resulta que es cierto.

It turns out that at around 25 teraflops operations per second, ray tracing becomes the best way to produce realistic looking pixels.

The demo we showed in partnership with ILMxLab is the first step in that direction. Part of the scene is rendered and part is ray traced, all the shadows and reflections come from ray tracing, and like movies, game engines are going to adopt this.

You’re going to see more and more ray-traced elements in our scenes, and I think ten years from now you might find nothing but ray tracing in our engines. Everybody who’s starting a triple-A project, they all should be thinking about ray tracing.


Traducido literalmente al español:

Resulta que en alrededor de 25 operaciones de teraflops por segundo, el trazado de rayos se convierte en la mejor manera de producir píxeles de aspecto realista.

La demostración que mostramos en colaboración con ILMxLab es el primer paso en esa dirección. Se procesa parte de la escena y parte se traza el rayo, todas las sombras y reflejos provienen del trazado del rayo, y como en las películas, los motores de juegos lo adoptarán.

Vas a ver más y más elementos con trazo de rayos en nuestras escenas, y creo que dentro de diez años no encontrarás nada más que el trazado de rayos en nuestros motores. Todos los que están comenzando un proyecto de triple A, todos deberían estar pensando en el trazado de rayos.


Lo que puedo concluir es:

1. Habla de 25 TF..........¿para el "full RT"? No lo deja claro. En el pipeline híbrido se rasteriza y algunos efectos son RT, lo que los requerimientos de cómputo disminuyen muchísimo.

2. ¿Cómo se calcula el RT? Tampoco lo aclara en esa frase. Una GPU es muy ineficiente para calcular el RT, tanto que una RTX2080TI es 10 veces mejor para el RT que una GTX1080TI. Sin unidades especializadas, hasta esos 25 TF se quedan cortos.

3. "Todos los que están comenzando un proyecto de triple A, todos deberían estar pensando en el trazado de rayos". Esto, para mí, es ahora, no dentro de 10 años.


Fuente: wccftech


Por último, para la demostración de Star Wars se usaron 4 GPU Volta con un precio de 3000 euros cada una. Unos meses después, una RTX2080TI era más potente para calcular el RT que una de esas Volta, por un precio casi 3 veces menor.


Lo que ha pasado con el 4K (que era imposible para una consola según la mayor parte de la industria) volverá a pasar con el RT.
Xpider_MX escribió:A ver si nos aclaramos, si algo es RT, pues es RT, no existe un "pseudo RT", si se calculan los rayos es RT.

La iluminación/sombreado pre-backed es lo que se ha utilizado hasta ahora, con algunas soluciones como el cone voxel, pero no RT.


Parece mentira que después de tantos años viendo soluciones técnicas de desarrollo gráfico, aún no hayamos aprendido que las técnicas se pueden simplificar/emular gracias a la gran inteligencia y habilidad de los desarrolladores (como el checkerboard, que simula una imagen 4k sin ser 4k nativo real).

Que se puedan lanzar unos pocos rayos y hacer cálculos de estos en tiempo real, no quiere decir que sea RT al uso ni mucho menos. Si nos ponemos tan básicos, Killzone Shadow Fall ya utilizó RT entonces...

Imagen


https://youtu.be/FXgUqUv-K5Y
IridiumArkangel escribió:
Xpider_MX escribió:A ver si nos aclaramos, si algo es RT, pues es RT, no existe un "pseudo RT", si se calculan los rayos es RT.

La iluminación/sombreado pre-backed es lo que se ha utilizado hasta ahora, con algunas soluciones como el cone voxel, pero no RT.


Parece mentira que después de tantos años viendo soluciones técnicas de desarrollo gráfico, aún no hayamos aprendido que las técnicas se pueden simplificar/emular gracias a la gran inteligencia y habilidad de los desarrolladores.

Que se puedan lanzar unos pocos rayos y hacer cálculos de estos en tiempo real, no quiere decir que sea RT al uso ni mucho menos. Si nos ponemos tan básicos, Killzone Shadow Fall ya utilizó RT entonces...

Imagen


https://youtu.be/FXgUqUv-K5Y

El RT es calcular el paso de los rayos de luz en la escena y cómo interaccionan con sus elementos. Si un juego lo calcula en tiempo real, será RT. Podemos discutir que sólo veremos unos efectos o que su calidad será baja por utilizar pocos rayos, pero que se usa RT es incuestionable.
Que se puedan lanzar unos pocos rayos y hacer cálculos de estos en tiempo real, no quiere decir que sea RT


Hacer cálculos lanzando rayos es RT, punto.

Si te refieres a que no se alcanza la calidad de pixar eso ya es otra cosa. RT es un algoritmo, y si usas rayos, sean muchos o pocos, estás haciendo RT.

Por cierto, si tomaramos como base un rayo por pixel, a 1080p/60 se calcularían 0.124 Giga Rays (Giga Ray es la nomenclatura de nVidia). Hay GPUs de nVidia que calvulan mas de 10 Giga Rays por segundo.

Segun nVidia, 5 Giga Rays es lo mínimo para iluminar una escena en una habitación.
Lo que yo digo entonces, Killzone SF utiliza RT. Vaya, y yo pensando que utilizaba SSR todos estos años...

A ver si os pasais por Beyond3D y se lo explicais a ellos también.
De nuevo mezclas cosas. Ray Tracing es eso, usar el algoritmo para calculos. En KZ utilizaron RT para reflejos, y sigue siendo Ray Tracing,

Otra cosa distinta es que los juegos next gen no vayan a usar RT para calcular toda la iluminación/sombreado/reflejos.
IridiumArkangel escribió:Lo que yo digo entonces, Killzone SF utiliza RT. Vaya, y yo pensando que utilizaba SSR todos estos años...

A ver si os pasais por Beyond3D y se lo explicais a ellos también.

Quien no se lo crea es porque duda de la palabra de Guerrilla. Si ellos dicen que usan RT para los reflejos ¿por qué debería contradecirles?

Si tuviera los conocimientos y algún método para la ingeniería inversa, podría determinarlo, pero no los tengo, así que sólo puedo confiar en que lo que dicen es cierto.
No todo son TFlops, ahora es la nueva moda del marketing de videojuegos (como en su día lo fueron los bits). Si se desarrolla hardware específico + software especializado en RT se puede llegar a mostrar cosas muy chulas en la siguiente generación. Seguro q cuando salió Ps1 nadie creía q una consola doméstica pudiera mostrar juegos 3D medianamente complejos, y se vio q con un diseño inteligente y eficiente (hardware dedicado 3D) se podía hacer con una calidad muy alta para la época. Lógicamente si comparamos el primer paso del 3D con el de ahora nos echamos a llorar, pero también es cierto q cuando vimos los juegos de Ps1 la primera vez, se nos caían los huevos al suelo.
PowerMore está baneado por "clon de usuario baneado"
Lammothh escribió:@PowerMore eres Morepower pero al revés?


Hay un Morepower en el foro? Si se llama como yo pero al revés seguro que es una buena persona.
Noctisblue está baneado por "Saltarse el ban con un clon"
PowerMore escribió:
Noctisblue escribió:NO ESPEREIS MUCHO RT en la nueva generacion. Y eso que ambas consolas tanto sony como microsofot andaran por los 12 a 14 tflops. Que sera insuficiente para algo asi.
Como bien dice el compañero sera mas pseudoRT que otra cosa. En consolas siempre tendremos eslogan y publicidad como si fuera que solo las consolas mueven eso.
No espereis nada bueno RT hasta bien llegado a lo 25tflosp con 32gb o mas.

Ahora que gracias a esa tecnologia se veran mejor los juegos, no en todos ni en todo momento. Pero en lo general si es una mejora, pero sera bastate leve alemnos en consolas. En dos años en PC ira mejor la cosa PC de ULTRAMEGA ALTA GAMA.

No dudo que el trabajo que van ahcer las compañias con sus respectivos motores graficos añadiendo "RT" para consolas no sean convicentes, pero puro marketing y tonterias. pero todo se empieza por algo y acabamos de empezar.


Punto en el que dejé de leer.


Perdón. No sabía que teníamos gente como tú. Quizas sea demasiado difícil que alguien como tú con tu comprensión lectora. No haya podido seguir leyendo mea culpa.

Te lo pongo así.

Microsoft = 12 o 14tflops y 16 o 20gb de ram
Sony = 14 o 16 tflops y 24 o 32gb de ram

Te duele? Salta.

Sigue sin poder leer. Entonces quizás sea problema vista. Ves a un oftalmologo.
Que te mejores.
Noctisblue escribió:
PowerMore escribió:
Noctisblue escribió:NO ESPEREIS MUCHO RT en la nueva generacion. Y eso que ambas consolas tanto sony como microsofot andaran por los 12 a 14 tflops. Que sera insuficiente para algo asi.
Como bien dice el compañero sera mas pseudoRT que otra cosa. En consolas siempre tendremos eslogan y publicidad como si fuera que solo las consolas mueven eso.
No espereis nada bueno RT hasta bien llegado a lo 25tflosp con 32gb o mas.

Ahora que gracias a esa tecnologia se veran mejor los juegos, no en todos ni en todo momento. Pero en lo general si es una mejora, pero sera bastate leve alemnos en consolas. En dos años en PC ira mejor la cosa PC de ULTRAMEGA ALTA GAMA.

No dudo que el trabajo que van ahcer las compañias con sus respectivos motores graficos añadiendo "RT" para consolas no sean convicentes, pero puro marketing y tonterias. pero todo se empieza por algo y acabamos de empezar.


Punto en el que dejé de leer.


Perdón. No sabía que teníamos gente como tú. Quizas sea demasiado difícil que alguien como tú con tu comprensión lectora. No haya podido seguir leyendo mea culpa.

Te lo pongo así.

Microsoft = 12 o 14tflops y 16 o 20gb de ram
Sony = 14 o 16 tflops y 24 o 32gb de ram

Te duele? Salta.

Sigue sin poder leer. Entonces quizás sea problema vista. Ves a un oftalmologo.
Que te mejores.

En que te basas para decir eso? Pon fuente si no carece de sentido xD
Pipipipipipiiiiii pipipipipipiiiiii

https://youtu.be/OOlPbNwgjBE

Venga todos!
Noctisblue escribió:
Te lo pongo así.

Microsoft = 12 o 14tflops y 16 o 20gb de ram
Sony = 14 o 16 tflops y 24 o 32gb de ram

Te duele? Salta.

Sigue sin poder leer. Entonces quizás sea problema vista. Ves a un oftalmologo.
Que te mejores.

Veo que manejamos las mismas fuentes. Lo corroboro y lo amplío.

Nintendo: 16 o 18 tflops y 32 o 36gb de ram
Sega: 18 o 20 tflops y 36 o 40gb de ram
Atari: 24 o 32 tflops y 48gb de ram

Hasta ahí puedo contar.
Si le interesa ah alguien yo tengo pomada Ginecanescalm Gel-Crema.

Es por si te pica la anaconda en la zona oscura donde no da el sol jeje. [fumando] [poraki]
195230 respuestas