XBOX Series X

BILBOKOA escribió:Pero... ¿lo del Raytracing va en serio?


En el rumor parece que sí, pero yo creo que serán efectos pseudo-raytracing (un efecto sólo parcial) o raytracing pre-cocinado, nada de en tiempo real. Por ejemplo, Poliphony Digital está trabajando en su "propia solución de tecnología raytracing", algo que me lleva a pensar que algún truco tendrá para reducir el coste computacional. Y como ellos, supongo que el resto...

Ya veremos, pero raytracing como lo que hace una 2080ti ahora mismo, no lo veo en unas consolas que saldrán en torno a dentro de 1 año y medio y por 500 pavos como máximo el pack básico.
IridiumArkangel escribió:
BILBOKOA escribió:Pero... ¿lo del Raytracing va en serio?


En el rumor parece que sí, pero yo creo que serán efectos pseudo-raytracing (un efecto sólo parcial) o raytracing pre-cocinado, nada de en tiempo real. Por ejemplo, Poliphony Digital está trabajando en su "propia solución de tecnología raytracing", algo que me lleva a pensar que algún truco tendrá para reducir el coste computacional. Y como ellos, supongo que el resto...

Ya veremos, pero raytracing como lo que hace una 2080ti ahora mismo, no lo veo en unas consolas que saldrán en torno a dentro de 1 año y medio y por 500 pavos como máximo el pack básico.

Sin el componente en tiempo real no es Raytracing. Todo lo que sea calcular los rebotes de un fotón será Raytracing, por poco que sea. La RTX2080TI tiene capacidad para lanzar 10 mil millones de rayos, hablamos de que Scarlett sea capaz de lanzar menos de 70 millones para 60 fps, tampoco es una locura.

Nadie dice (ni pensará) que se aplicará Raytracing para todos los efectos, menos aún para renderizar una escena. El Battlefield 5 sólo calcula los reflejos con Raytracing y es un avance enorme. Shadow of Tomb Raider las "contact shadows" y algún efecto más y su nivel de fidelidad es mucho mayor.


Edito: 70 miilones de rayos sería para un sólo efecto en un juego 4K60 con Denoising o uno 1080p60 sin Denoising.
Xlooser escribió:
IridiumArkangel escribió:
BILBOKOA escribió:Pero... ¿lo del Raytracing va en serio?


En el rumor parece que sí, pero yo creo que serán efectos pseudo-raytracing (un efecto sólo parcial) o raytracing pre-cocinado, nada de en tiempo real. Por ejemplo, Poliphony Digital está trabajando en su "propia solución de tecnología raytracing", algo que me lleva a pensar que algún truco tendrá para reducir el coste computacional. Y como ellos, supongo que el resto...

Ya veremos, pero raytracing como lo que hace una 2080ti ahora mismo, no lo veo en unas consolas que saldrán en torno a dentro de 1 año y medio y por 500 pavos como máximo el pack básico.

Sin el componente en tiempo real no es Raytracing. Todo lo que sea calcular los rebotes de un fotón será Raytracing, por poco que sea. La RTX2080TI tiene capacidad para lanzar 10 mil millones de rayos, hablamos de que Scarlett sea capaz de lanzar menos de 70 millones para 60 fps, tampoco es una locura.

Nadie dice (ni pensará) que se aplicará Raytracing para todos los efectos, menos aún para renderizar una escena. El Battlefield 5 sólo calcula los reflejos con Raytracing y es un avance enorme. Shadow of Tomb Raider las "contact shadows" y algún efecto más y su nivel de fidelidad es mucho mayor.


Edito: 70 miilones de rayos sería para un sólo efecto en un juego 4K60 con Denoising o uno 1080p60 sin Denoising.



Pues lo dicho, porque no deja de ser una fracción irrisoria de lo que realmente ofrece una 2080ti, meter aunque sea con calzador algún efectillo mediante "raytracing" cuando todo lo demás se hace con las soluciones de siempre. Me queda claro que en las next-gen el marketing girará en torno a meternos el raytracing por doquier cuando realmente serán "migajas de raytracing" en el mejor de los casos...

P.D Y yo no estoy del todo seguro que un pseudo efecto a nivel bajo de raytracing en consola sea una mejor opción que aprovechar la potencia que necesita ese pseudo efecto en potenciar los efectos de rasterizado que se han evolucionado hasta el momento a alto nivel. Supongo que hasta que no vea ejemplos tangibles de juegos comerciales (ya me conozco los trucos de comparaciones técnicas hechas exprofeso), no me convenceré.

Xlooser escribió:Sin el componente en tiempo real no es Raytracing. Todo lo que sea calcular los rebotes de un fotón será Raytracing, por poco que sea.


Justamente Poliphony Digital ha utilizado Raytracing para luego hacer un pseudo efecto pre-baked en los reflejos de GT Sports si mal no recuerdo. Obviamente no es raytracing al uso, pero es un amago con un coste computacional contenido. En las next-gen se podría hacer algo parecido muy potenciado sin tener que hacer raytracing en tiempo real...

Gran Turismo Sport already uses a simplified version of ray tracing that “pre-bakes” the reflections seen on the cars. In other words, the reflections in GT Sport may look like they’re being rendered in real-time, but they’re actually a bit of a cheat.


Recordaba bien.
70 millones VS 10K millones......
Y eso asumiendo que las RTX2080 son primerizas y se atragantan con el asunto.
Scarlet y raytracing están a años luz, a no ser que esa tarea la procese Azure.

Tenemos que asumir que está tecnología es la antesala del fotorrealismo y para que se asiente pasarán mínimo 10 años.
Lammothh escribió:Tenemos que asumir que está tecnología es la antesala del fotorrealismo y para que se asiente pasarán mínimo 10 años.

Para que te hagas una idea, la demo de Star Wars con la que presentaron la tecnología completa en tiempo real utilizaba 4 tarjetas Titán de 13 tflops cada una.
El RT no necesariamente tiene que ser hecho por hadware de AMD, recordemos que los ingenieros de Microsoft ya han diseñado chips antes. Por algo la api de DirectX Ray Tracing existe (https://en.m.wikipedia.org/wiki/DirectX_Raytracing)

Y como ya he posteado páginas atras, Phil Spencer ha twiteado antes que están trabajando con tecnología RT para sus productos.

No sería descabellado que las next gen, al menos las de MS, que son las que asegura el tio verificado de Resetera, lleven algún chip de ayuda para cálculo de RT.
Si se confirma algo así, una ventaja más en Scarlet sobre ps5.
Suponiendo que los ingenieros de PS5 sean los mismos que los de la 4pro.
@IridiumArkangel eso es lo que ya se hace, se simula la iluminación con grandes servidores y se saca un mapa que es el que se usa en tiempo real. La fidelidad es bajísima.


P.D: el Raytracing no es nada esotérico, todos habláis como si fuera algo misterioso.
Xlooser escribió:@IridiumArkangel eso es lo que ya se hace, se simula la iluminación con grandes servidores y se saca un mapa que es el que se usa en tiempo real. La fidelidad es bajísima.


P.D: el Raytracing no es nada esotérico, todos habláis como si fuera algo misterioso.


RT bien implementado, por hardware, si es algo esotérico
Xpider_MX escribió:
Xlooser escribió:@IridiumArkangel eso es lo que ya se hace, se simula la iluminación con grandes servidores y se saca un mapa que es el que se usa en tiempo real. La fidelidad es bajísima.


P.D: el Raytracing no es nada esotérico, todos habláis como si fuera algo misterioso.


RT bien implementado, por hardware, si es algo esotérico

¿Por qué?
Xlooser escribió:
Xpider_MX escribió:
Xlooser escribió:@IridiumArkangel eso es lo que ya se hace, se simula la iluminación con grandes servidores y se saca un mapa que es el que se usa en tiempo real. La fidelidad es bajísima.


P.D: el Raytracing no es nada esotérico, todos habláis como si fuera algo misterioso.


RT bien implementado, por hardware, si es algo esotérico

¿Por qué?


Porque hasta hace poco, ray tracing de calidad en tiempo real en juegos no había.
Xpider_MX escribió:
Xlooser escribió:
Xpider_MX escribió:
RT bien implementado, por hardware, si es algo esotérico

¿Por qué?


Porque hasta hace poco, ray tracing de calidad en tiempo real en juegos no había.

Touché. Yo me refiero a la otra acepción.
Xlooser escribió:Touché. Yo me refiero a la otra acepción.


Lo poco que he visto de gameplay, en mi opinión, no llega a lo que para mi es una buena implementación de RT. Supongo que porque la mayoría son juegos parchados, así que para mi si es algo esotérico la día de hoy.
Xpider_MX escribió:
Xlooser escribió:Touché. Yo me refiero a la otra acepción.


Lo poco que he visto de gameplay, en mi opinión, no llega a lo que para mi es una buena implementación de RT. Supongo que porque la mayoría son juegos parchados, así que para mi si es algo esotérico la día de hoy.

Entonces es extraño, novedoso o lejano, como quieras verlo. El RT sólo es calcular la dirección de la luz y sus rebotes y luego colorear el píxel según el resultado. Quizá se piense que el RT ofrece una calidad sin precedentes, no, sólo es físicamente más exacto.

Lo que quiero decir es que, una vez dado el primer paso, para las compañías es muy fácil implementarlo. No hace falta la burrada de potencia que se piensa para empezar a hacer algo, ni los costes se cuentan por miles.
Xlooser escribió:
Xpider_MX escribió:
Xlooser escribió:@IridiumArkangel eso es lo que ya se hace, se simula la iluminación con grandes servidores y se saca un mapa que es el que se usa en tiempo real. La fidelidad es bajísima.


P.D: el Raytracing no es nada esotérico, todos habláis como si fuera algo misterioso.


RT bien implementado, por hardware, si es algo esotérico

¿Por qué?



pq la apu la fabrica amd y hasta ahora que se sepa no tiene una solución por hardware que soporte directx raytracing
A parte de la potencia y sus mejoras gráficas, que creía que se debería incorporar o mejorar a la próxima consola.

A lo mejor un mando con más funciones?
Alguna IA incorporada?
...
Se sabe fecha aproximadamente de salida de la consola???
A K I R A escribió:Se sabe fecha aproximadamente de salida de la consola???

Los rumores hablan de 2020 y supongo que de ser así sería para finales, pero todavía no se sabe nada oficialmente más que están trabajando en ella.
A K I R A escribió:Se sabe fecha aproximadamente de salida de la consola???


Hombre, fecha exacta hasta que las anuncien de forma oficial.
Camtrack escribió:
Xlooser escribió:
Xpider_MX escribió:
RT bien implementado, por hardware, si es algo esotérico

¿Por qué?



pq la apu la fabrica amd y hasta ahora que se sepa no tiene una solución por hardware que soporte directx raytracing

Se conocen las patentes de AMD de la Super-SIMD y su plan para incorporarlas en Navi. También se conocen las patentes de la nueva arquitectura de la Compute Unit para poder desacoplarse en FP16 y FP8 y su plan de incorporar eso en Navi (Vega ya puede trabajar en FP16). La Super-SIMD puede emular un Tensor Core, no es tan eficiente pero lo es mucho más que un Shader normal.

No habrá unidades de función fija para el RT, pero cualquier desarrollador podrá utilizar RT si quiere.
Microsoft ya ha desarrollado procesadores de soporte para su hardware, por ejemplo Kinect lleva procesadores diseñados por MS, lo mismo Hololens.

No veo muy descabellado que MS pueda introducir una tecnología de RT y que no sea algo de AMD.
@wynnie7 yo vería un puntazo añadir un altavoz al mando, como hizo la Wii en su momento.
manmartin escribió:@wynnie7 yo vería un puntazo añadir un altavoz al mando, como hizo la Wii en su momento.


Puff pa que?? Prefiero si tuviesen que añadir algo fuese el giroscopio que da más juego que un altavoz.

El de la play lo tengo en mute siempre.
Xlooser escribió:Se conocen las patentes de AMD de la Super-SIMD y su plan para incorporarlas en Navi. También se conocen las patentes de la nueva arquitectura de la Compute Unit para poder desacoplarse en FP16 y FP8 y su plan de incorporar eso en Navi (Vega ya puede trabajar en FP16). La Super-SIMD puede emular un Tensor Core, no es tan eficiente pero lo es mucho más que un Shader normal.

No habrá unidades de función fija para el RT, pero cualquier desarrollador podrá utilizar RT si quiere.



Claro , como se podían hacer juegos 3d en la game boy advance amijo !
joshicko escribió:
manmartin escribió:@wynnie7 yo vería un puntazo añadir un altavoz al mando, como hizo la Wii en su momento.


Puff pa que?? Prefiero si tuviesen que añadir algo fuese el giroscopio que da más juego que un altavoz.

El de la play lo tengo en mute siempre.

+1 menuda absurdez un altavoz en el mando
Pues a mí en la Wii lo poco que jugué me gustó. Recuerdo que en el Mario las monedas sonaban en el altavoz y me pareció muy curioso. Ahora lo del giroscopio... Como que no me veo inclinándome de un lado a otro...
Mejor la vibración HD, en la switch, lo de las monedas que comentaba el compañero, el efecto que hace la vibración cuando cojes las monedas parece que suena como si tuviese un altavoz y es la vibración.
manmartin escribió:Pues a mí en la Wii lo poco que jugué me gustó. Recuerdo que en el Mario las monedas sonaban en el altavoz y me pareció muy curioso. Ahora lo del giroscopio... Como que no me veo inclinándome de un lado a otro...


Hombre, desde mi punto de vista, si, muy bonito la primera o primeras veces que juegas, pero realmente tampoco es algo que aporte mucho a la jugabilidad, ¿qué pasa si juegas con cascos? , por ejemplo.

Veo mucho mas útil, jugablemente, la vibracion, o incluso una pantalla (aunque encarecería el mando).
Qué si juegas con cascos no suena. Hay juegos en los que podían implementar eso, yo que sé en los shooter que sonara la recarga o el cambio de arma en ese altavoz.
He de reconocer que eso me sorprendió de la Wii y gratamente.
Pero vamos todo lo que sea mejorar bienvenido sea, ya sea una pantalla o un giroscopio. Siempre hay opción de usarlo o no en el juego y tampoco creo que a nivel ergonómico empeorara mucho el mando.


No sabía que el ruidito era cosa de la vibración, porque si recuerdo oírlo por el altavoz.
manmartin escribió:Qué si juegas con cascos no suena. Hay juegos en los que podían implementar eso, yo que sé en los shooter que sonara la recarga o el cambio de arma en ese altavoz.
He de reconocer que eso me sorprendió de la Wii y gratamente.
Pero vamos todo lo que sea mejorar bienvenido sea, ya sea una pantalla o un giroscopio. Siempre hay opción de usarlo o no en el juego y tampoco creo que a nivel ergonómico empeorara mucho el mando.


No sabía que el ruidito era cosa de la vibración, porque si recuerdo oírlo por el altavoz.


A lo que voy es, qué tanto mejora o cambia la experiencia del juego el escuchar las recargas en ese altavoz en vez de hacerlo por la tv.

Si van a meter cosas, yo prefiero que sean cosas que realmente mejoren la experiencia de juego, como la vibracion en los gatillos del mando de la Xbox One, ya que cualquier cosa extra va a encarecer, poco o mucho, el mando.
Camtrack escribió:
Xlooser escribió:Se conocen las patentes de AMD de la Super-SIMD y su plan para incorporarlas en Navi. También se conocen las patentes de la nueva arquitectura de la Compute Unit para poder desacoplarse en FP16 y FP8 y su plan de incorporar eso en Navi (Vega ya puede trabajar en FP16). La Super-SIMD puede emular un Tensor Core, no es tan eficiente pero lo es mucho más que un Shader normal.

No habrá unidades de función fija para el RT, pero cualquier desarrollador podrá utilizar RT si quiere.



Claro , como se podían hacer juegos 3d en la game boy advance amijo !

No entiendo qué te despierta tal desconfianza. El RT que mostrarían los juegos sería real, lo que simula una Super-SIMD serían los Tensor Cores para el cálculo matricial.

Que el RT sea una posibilidad real sólo puede ser bueno, un gran avance, se use o no. Si la consola llevara unidades de función fija, como los RT Core y los Tensor Core, los desarrolladores igualmente podrían no utilizarlos. Entonces ¿es una tontería ponerlos? Para mí no.
Xlooser escribió:
Camtrack escribió:
Xlooser escribió:Se conocen las patentes de AMD de la Super-SIMD y su plan para incorporarlas en Navi. También se conocen las patentes de la nueva arquitectura de la Compute Unit para poder desacoplarse en FP16 y FP8 y su plan de incorporar eso en Navi (Vega ya puede trabajar en FP16). La Super-SIMD puede emular un Tensor Core, no es tan eficiente pero lo es mucho más que un Shader normal.

No habrá unidades de función fija para el RT, pero cualquier desarrollador podrá utilizar RT si quiere.



Claro , como se podían hacer juegos 3d en la game boy advance amijo !

No entiendo qué te despierta tal desconfianza. El RT que mostrarían los juegos sería real, lo que simula una Super-SIMD serían los Tensor Cores para el cálculo matricial.

Que el RT sea una posibilidad real sólo puede ser bueno, un gran avance, se use o no. Si la consola llevara unidades de función fija, como los RT Core y los Tensor Core, los desarrolladores igualmente podrían no utilizarlos. Entonces ¿es una tontería ponerlos? Para mí no.


pues ojala se pueda hacer raytracing con los super simd , buscando en google no parece haber ninguna fuente desde amd que lo relacione, si tienes links con info, encantado de leerlos
Camtrack escribió:
Xlooser escribió:
Camtrack escribió:

Claro , como se podían hacer juegos 3d en la game boy advance amijo !

No entiendo qué te despierta tal desconfianza. El RT que mostrarían los juegos sería real, lo que simula una Super-SIMD serían los Tensor Cores para el cálculo matricial.

Que el RT sea una posibilidad real sólo puede ser bueno, un gran avance, se use o no. Si la consola llevara unidades de función fija, como los RT Core y los Tensor Core, los desarrolladores igualmente podrían no utilizarlos. Entonces ¿es una tontería ponerlos? Para mí no.


pues ojala se pueda hacer raytracing con los super simd , buscando en google no parece haber ninguna fuente desde amd que lo relacione, si tienes links con info, encantado de leerlos

No hay ningún sitio que diga expresamente "con una microarquitectura super-SIMD puedes implementar el RT", son deducciones hasta que se llega ahí. De todas maneras, esto es una especulación, claro, igual que todo el hilo.

El Tensor Core lo que hace es una operación FMAC por ciclo (wiki) -> su mejor aplicación para viedojuegos es limpiar la imagen (Denoising, super-resolución...) -> AMD tiene patentes y planes para que Navi implemente super-SIMD (patente, enlace), aunque también se habla de que sea para la siguiente tarjeta a Navi (en ese mismo enlace, por ejemplo) -> las Compute Unit de AMD ya se pueden desdoblar en FP16 y FP8 (un Tensor Core trabaja con FP8, Vega NCU) -> Scarlett no montará Navi, sino una GPU personalizada basada en Navi -> Si Scarlett tiene al final RT, será antes por la super-SIMD que por llevar unidades de función fija.

Aunque esto es sólo una parte del RT, lo otro consiste en calcular las intersecciones de un rayo con un objeto de la geometría. Los Shader son muy ineficientes calculando eso y se necesitan RT Cores si se quieren garantías de un mínimo de calidad.
De hecho, una cosa que no se comenta mucho en el caso de las nvidia rtx, aunque los tensor cores son especialmente buenos a la hora de hace denoising y nvidia quería que se usaran para la limpieza del ruido generado durante el raytracing, incluso incentivando para que se usaran. Las desarrolladoras no los están usando, juegos como battlefield V, Metro Exodus, Control, shadows of tomb raider, Port Royale (el benchmark para raytracing que ha sacado futuremark) y de forma general todas las desarrolladoras que están haciendo sus juegos con raytracing implementado via libreria DXR de DirectX de microsoft.
Nvidia en ese sentido se ha topado con un problema, esperando que al ser los primeros todos fueran a usar el esquema que ellos habían planteado inicialmente, las desarrolladoras han decidido no aplicar programaciones especificas para sacarle partido a los tensor como denoisers para raytracing (cosa que ofrecería algo de mejor rendimiento), en cambio están utilizando otras técnicas de reducción de ruido estándar contempladas en la libreria de microsoft y asi mantenerse compatibles con futuro hardware, evitando gastos añadidos para la desarrolladora del juego.
Actualmente las únicas API que usan los tensor como denoisers para raytracing son la propia api Optix de nvidia y vulkan que tiene extensiones para raytracing propietarias para el hardware de las gpu turing/volta de nvidia (y cuidado que Khronos Group va a sacar su estándar abierto para raytracing renovado, para evitar el amasijo de extensiones actual, por lo que puede venirle otro palo).
Nvidia lleva trabajando en como solventar esto de forma que no se tenga que programar de forma especifica, pero de momento aun no le han dado solución.
Xpider_MX escribió:Imagen

https://m.imgur.com/a/1A6aoQ2

Por partes y asumiendo que es cierto.


CPU:

- Frecuencia turbo, seguramente para un sólo núcleo. Para los juegos que no se hayan paralelizado bien y no perder tanto rendimiento.
- Caché L3 bastante grande, de 32 MB y ¿1 GB de L4? Ufff, eso me parece muy bonito, pero muuuuucho.


GPU:

- 1,4 GHz entra dentro de las posibles frecuencias para los chips de 7nm. Incluso eso es menor, así que el consumo estará muy bien.
- Bajo la arquitectura actual, 4096 Stream Processors serían 64 ALUs (4 SIMD16) por cada una de las CU (supongo que en 4 Shader Engines) y 11,468 TF. Es el máximo que el Hardware Scheduler actual de AMD admite, seguro que se desactivan unas cuantas CU de cada Shader Engine para abaratar la producción. Por ejemplo, 56 CU activas serían 10,035 TF.
- La arquitectura super-SIMD no es imposible con esos números. Mantengo la esperanza.


Memoria:

- 22 GB de GDDR6 es muy alentador. Cuadra con los 352 bits del bus (11 módulos de 2 GB y bús de 32 bit cada uno). Si los rumores de Game Core OS son ciertos, ya no habría esa separación entre juegos y SO y los 22 GB de memoria serían para todas la aplicaciones. Cuando un juego se ejecuta, tiene accesible el 90% de esa memoria, es decir 19,8 GB, más del doble que ahora.
- Una GDDR6 de 16 Gbps darían un ancho de banda de 704 GB/s. Una bestialidad. Si fuera de 14 Gbps, el ancho de banda sería entonces de 616 GB/s, otra bestialidad.

Edito: esos 1650 MHz es de la frecuencia máxima. Los datos oficiales de la GDDR6, son 1,5 GHz para 12 Gbps y 1,75 GHz para 14 Gbps. En el peor de los casos, el ancho de banda sería de 528 GB/s, una buena cifra también (y más realista, no nos engañemos), eso sí, tendría overclock cuando se necesitara y consumiría menos.


¡¡¡Y sumamos un SSD!!! ¿Y todo esto al servicio de 12 estudios de gran nivel y los que adquiera Micro a partir de ahora?

Uffff, los datos cuadran con lo que podría ser, son muy realistas (desde mi punto de vista claro) y Microsoft perfectamente podría armar una consola de 600 euros, subvencionados con suscripciones quedarían 500 euros aprox, en 2020 con estas especificaciones. Pero hay algo que me dice que esto es demasiado bonito.
1 GB de L4? Ufff, eso me parece muy bonito, pero muuuuucho


La L4 podría ser simplemente la ram, 1GB para el OS.
Xpider_MX escribió:
1 GB de L4? Ufff, eso me parece muy bonito, pero muuuuucho


La L4 podría ser simplemente la ram, 1GB para el OS.

No sé, si fuera sólo para eso no la pondrían como nivel L4 de caché. Habrá que ver cómo se accede a esa memoria, podría ser L4 para la CPU y L3 para la GPU para que se comuniquen más eficientemente o cuando se ejecutara un juego cargar ahí los archivos imprescinidibles del SO. Lo que es casi seguro es que, de existir, no se programaría para ella específicamente y funcionaría con un controlador, no volverán a tener 2 pozos de memoria.

De todas formas es una caché, muy vasta para ser SRAM, será eDRAM. En todo caso, su latencia sería bajísima en comparación con la GDDR6.
De todos modos la captura esa me parece un poco fake (que no necesariamente significa que la info sea falsa).

Mas que nada me parece raro que lo que se ve sea sea una ventana de powershell siendo que PS solo puede ejecutar scripts.
no se por que me da que es un fake, ejecuta en powershell un archivo socdump.exe y encima le dice la informacion detallada que interesa?... anda si sale scarlet en la build, incluso hace incapie que los los shaders son una configuración de 64 arcturus engine y lo mas raro... todo sale perfectamente legible siendo un "supuesto" volcado del SOC... no se... no se... habiendo visto equipos de esta índole esta captura es muy rara sobretodo por estos puntos.

No creo que estemos viendo el hardware de la consola, tiendo a pensar 3 cosas... muy vagamente que pueda ser un primer devkit, os recuerdo que los primeros no usan el hardware final de la consola, son estaciones de trabajo que superan normalmente por mucho al hardware final ya que lo tiene que virtualizar. Segundo, que sea simplemente alguien con ganas de quedarse con la gente usando una estación de trabajo de amd en la que a creado un equipo virtualizado para que parezca mas real. Y tercero un "chopeo" y sea algo totalmente falso, hay cosas en todos los sentidos que no me cuadran de lo que sale en la imagen como he dicho antes, que me hace pensar en las dos ultimas posibilidades.

Ahora asumiré por un momento que sea cierto, a primera vista veo cosas que podría indicar ser un equipo virtualizado y la posible estación usada, para la cpu parece un Epyc o threadripper (misma cache L3) exagerada para una consola a mi punto de vista, ademas en los datos de hyper sale un modo con 24 hilos, aqui o se le ha colado dejando ver que la cpu es mayor a lo que muestra, o quiere hacernos pensar que los núcleos manejan 3 hilos por cores, cosa que si AMD pudiera ya lo hubiera anunciado a bombo y platillo para su gama profesional donde si seria muy util frente a intel, que es otra cosa que me hace dudar y mucho de la veracidad de la imagen. La cache L4 puede ser un dato ficticio por virtualizacion, como por ejemplo memoria dedicada o el uso de una eDRAM. Para la parte gráfica tiene toda la pinta de ser una AMD MI60 misma cantidad de shaders y CU aunque esta tiene 32gb, pero puedes virtualizar hacia abajo y que junto a la cpu que comento es un conjunto perfecto, con la que se podría virtualizar un equipo como el que muestra esta supuesta filtración.

Personalmente por querer hacerlo tan sumamente obvio viéndose nombres en codigo ya conocidos, el socdump, mas el tema del numero de hilos, me decanto principalmente a que solo es alguien con ganas de marear al personal, eso si no me extrañaria que ciertos "medios" comiencen a publicarlo como "nueva filtración" xD
Arcturus es la arquitectura sucesora de Navi, sólo por eso se descarta automáticamente.
Xlooser escribió:Arcturus es la arquitectura sucesora de Navi, sólo por eso se descarta automáticamente.


Me lo has quitado de la boca.
Ya me parece de cuento de hadas que pongan Navi en lugar de Vega, imagínate la sucesora.

Las filtraciones son cada vez más disparatadas:
Caches de 1GB.......22GB de memoria gráfica...…sueños demasiados húmedos, para paja y poco más.

Tenemos que ser conscientes del límite 500$ y eso da para lo que da. Si nos hacemos castillos de naipes luego nos la pegamos.

Insisto, cuando nos dijeron que Scorpio montaba Jaguar custom con base del 2013, muchos se cargaron en la madre que los parió.
@Lammothh Probablemente se cagaron en la madre que los parió, en parte, porque llevaban meses viendo especificaciones brutisimas como esas y se esperaban más.
Lammothh escribió:
Xlooser escribió:Arcturus es la arquitectura sucesora de Navi, sólo por eso se descarta automáticamente.


Me lo has quitado de la boca.
Ya me parece de cuento de hadas que pongan Navi en lugar de Vega, imagínate la sucesora.

Las filtraciones son cada vez más disparatadas:
Caches de 1GB.......22GB de memoria gráfica...…sueños demasiados húmedos, para paja y poco más.

Tenemos que ser conscientes del límite 500$ y eso da para lo que da. Si nos hacemos castillos de naipes luego nos la pegamos.

Insisto, cuando nos dijeron que Scorpio montaba Jaguar custom con base del 2013, muchos se cargaron en la madre que los parió.


Yo es que aún no me creo que lleve zen 2 + navi.

Todo rumores y seguramente creados por fanboys
Esas especificaciones son factibles para una consola de 600 euros en 2020, Scarlett va a sorprender mucho. Tenéis que pensar con la economía de escala en la cabeza, si no es muy difícil imaginárselo. Un truco, montad un hardware de entre 1000 y 1200 euros (ó 1200-1400 para 600 euros) actuales y os acercaréis a lo que puede ser una consola futura.

No será Arcturus porque incluso 2020 es muy justito, pero no me cabe duda de que Microsoft se implicará más en el hardware y Scarlett montará un chip con más nivel de personalización que el Scorpio Engine y se basará en Navi, con elementos de Arcturus y otros pocos que no llevará ninguna tarjeta AMD hasta la siguiente a Arcturus (o nunca).

Por ejemplo, PS4 Pro (2016) puede desdoblar sus CU en FP16 como Vega (2018) y genera el ID buffer por hardware que quizá ni pueda hacerlo Navi (2019).
Esa ultima imagen.... como sea cierto..... [tadoramo]
Eaniel Kashal escribió:@Lammothh Probablemente se cagaron en la madre que los parió, en parte, porque llevaban meses viendo especificaciones brutisimas como esas y se esperaban más.


Si, la gente se vino abajo porque se habían creado unas expectativas de una máquina con hardware de 800€.
https://www.3djuegos.com/noticias-ver/1 ... i-en-2019/

Por lo tanto lanzarán ese tipo de graficas antes que Scarlet, a la Postre sería más previsible.

Por cierto si es verdad que la peña se hicieron ilusiones de un Hard potente, pero es que MS al principio de la one no contaba tanto por potencia para juegos si no para centro multi....
196890 respuestas