XBOX Series X

En números, el salto de X a Scarlett no aparenta lo que presumiblemente en realidad va a ser.
Doblar en Teraflops ya es una barbaridad pero es que además traerá unos regalos que marcarán la diferencia.
Ese SSD de apoyo, el avance en la CPUx4 y la GPU bastante avanzada van a proporcionarnos una máquina increíble.
Ya dijo Microsoft que sería el mayor salto de su historia haciendo consolas. Puede ser un x5 respecto a Xbox One X, lo que haría un x20 respecto a Xbox One. Pero yo creo que la influencia de la RAM virtual va a ser mayor de lo que la mayoría de la gente cree, que aunque no aumente los números, lo vamos a notar mucho.

Pensad que en PC, los SSD "sólo" aceleran los tiempos de carga, ningún juego lo utiliza como RAM virtual. Que los desarrolladores dispongan de, pongamos, 80 GB de memoria (16 GDDR6 + 64 SSD) va a marcar la diferencia.
La RAM virtual no es para tanto, es meramente el swap de toda la vida que tienen los ordenadores, y posiblemente la capacidad de reservarla manualmente, lo que sería la inversa de la ramdisk.
Como memoria virtual yo entiendo disponer del 100% del espacio de direcciones, en este caso 80 GB, no disponer de 16 GB y 64 de swap que gestiona el sistema según sus directivas.

¿Cómo afectaría a tu aplicación tener 80 GB de memoria virtual, 16 reales y 64 en un SSD tan rápido que sea capaz de mantener el flujo de la información de forma constante, sin tiempos de espera? Yo creo que mejoraría mucho.
Todos los equipos informáticos usan el disco duro - sea mecánico o SSD - como espacio de intercambio de la RAM. En Windows se llama paginación y en Linux se llama partición de swap.

Obviamente se pierde una ENORME cantidad de rendimiento al usar disco duro como swap para la RAM, reduciéndose mucho cuanto mayor velocidad de acceso y velocidad de lectura tenga el disco.

Lo que mejorará ostensiblemente el rendimiento del disco en esta generación que viene se llama PCI Express 4.0, soportado por Zen 2, y ya está.
Alguien cree, de verdad, que si se tratase de un simple swap lo iban a mencionar como algo novedoso?
¿Y tú como programador tienes acceso a la paginación de Windows o swap de Linux? La memoria virtual, la de verdad, sólo la he visto en zOS.

No es lo mismo que el programador tenga un espacio de direcciones de 80 GB y que haga lo que le plazca a que tenga 16 GB y que el Sistema Operativo disponga de 64 GB para intercambiar las páginas según sus algoritmos.

Con la primera opción, el programador decide qué es lo que intercambiar y cuándo para que el rendimiento de todo el sistema (el videojuego) no se resienta. En la segunda, se usa la swap una vez se ha llenado la memoria principal después de que el desarrollador haya asumido el riesgo de querer cargar más de de esos 16 GB y sólo puede rezar para que la merma en el rendimiento sea la menor posible.

Al hablar Microsoft de RAM virtual, yo pienso que es memoria virtual de verdad, no paginación. Espero que sea así.

Lo que mejorará ostensiblemente el rendimiento del disco en esta generación que viene se llama PCI Express 4.0, soportado por Zen 2, y ya está.

Si se monta un HDD, como si es PCI Express 10.0. Igualmente, si el SSD es lento, carece de importancia que el PCI Express sea 4.0.
Que se dejen de gráficos y empiecen a hacer juegos buenos.
The-Best escribió:Que se dejen de gráficos y empiecen a hacer juegos buenos.

Pero si precisamente la gente lo que pide son gráficos.
Yo ayer jugue/ VI en la Xbox One X avengers infinitud war en 4k. Menudo juegazo. Y solo use el mando 1 vez
@Grinch ¿Hay que jugar más veces o de la primera te sacas los 1000G?

[beer]
@Eaniel Kashal tuve que hacer un dos vueltas pues me mataron cuando se fue la luz . Pero en 2 horas seguidas tienes los 1000 g
Grinch escribió:
The-Best escribió:Que se dejen de gráficos y empiecen a hacer juegos buenos.

Pero si precisamente la gente lo que pide son gráficos.
Yo ayer jugue/ VI en la Xbox One X avengers infinitud war en 4k. Menudo juegazo. Y solo use el mando 1 vez


y para que quieres buenos gráficos si luego los juegos son una mierda?
@The-Best el juego da igual . Hoy en día importan los gráficos. Que la flor de arriba a la izquierda vaya a 4k. Que más da la jugabilidad.



PD: por si no ha quedado evidente estaba siendo irónico pues solo leo que si que graficazos etc . Y yo disfrutando del mario maker xD
Grinch escribió:@The-Best el juego da igual . Hoy en día importan los gráficos. Que la flor de arriba a la izquierda vaya a 4k. Que más da la jugabilidad.



PD: por si no ha quedado evidente estaba siendo irónico pues solo leo que si que graficazos etc . Y yo disfrutando del mario maker xD


Es lo de siempre, se quiere una evolución, la más grande posible, en todos los aspectos.
The-Best escribió:Que se dejen de gráficos y empiecen a hacer juegos buenos.

+1 Un nuevo Alan Wake se agradecería.
Xlooser escribió:Pensad que en PC, los SSD "sólo" aceleran los tiempos de carga, ningún juego lo utiliza como RAM virtual. Que los desarrolladores dispongan de, pongamos, 80 GB de memoria (16 GDDR6 + 64 SSD) va a marcar la diferencia.


No sé, yo tengo mis reservas sobre eso, al final estás usando el recurso "dos veces". Lees el dato del "disco" y lo colocas en el disco. Qué disponiblidad tendrá el disco para trabajar como ram, sería interesante para mi desde un punto de vista técnico como funciona ese recurso y como mejora el rendimiento más allá de la velocidad de lectura. A priori no creo que sea una mejora sustancial, lo veo más como algo de uso puntual ,¿qué sentido tendría aumentar la ram si el SSD ya puede hacer esa función? Es una de las primeras preguntas que me viene a la mente.
Noctisblue está baneado por "Saltarse el ban con un clon"
manmartin escribió:
Xlooser escribió:Pensad que en PC, los SSD "sólo" aceleran los tiempos de carga, ningún juego lo utiliza como RAM virtual. Que los desarrolladores dispongan de, pongamos, 80 GB de memoria (16 GDDR6 + 64 SSD) va a marcar la diferencia.


No sé, yo tengo mis reservas sobre eso, al final estás usando el recurso "dos veces". Lees el dato del "disco" y lo colocas en el disco. Qué disponiblidad tendrá el disco para trabajar como ram, sería interesante para mi desde un punto de vista técnico como funciona ese recurso y como mejora el rendimiento más allá de la velocidad de lectura. A priori no creo que sea una mejora sustancial, lo veo más como algo de uso puntual ,¿qué sentido tendría aumentar la ram si el SSD ya puede hacer esa función? Es una de las primeras preguntas que me viene a la mente.


No es que se vaya a usar con memoria ram constante.
Yo lo veo como un auxiliar para momento concretos. Que ayude a cargar más contenido para cierta zonas.
La ventajas con el SSD va a ser muy grandes. Los tiempos de carga va a ser increíblemente rápidos.
Y eso afecta realmente a la jugabilidad y inmerdividad del juego.
manmartin escribió:
Xlooser escribió:Pensad que en PC, los SSD "sólo" aceleran los tiempos de carga, ningún juego lo utiliza como RAM virtual. Que los desarrolladores dispongan de, pongamos, 80 GB de memoria (16 GDDR6 + 64 SSD) va a marcar la diferencia.


No sé, yo tengo mis reservas sobre eso, al final estás usando el recurso "dos veces". Lees el dato del "disco" y lo colocas en el disco. Qué disponiblidad tendrá el disco para trabajar como ram, sería interesante para mi desde un punto de vista técnico como funciona ese recurso y como mejora el rendimiento más allá de la velocidad de lectura. A priori no creo que sea una mejora sustancial, lo veo más como algo de uso puntual ,¿qué sentido tendría aumentar la ram si el SSD ya puede hacer esa función? Es una de las primeras preguntas que me viene a la mente.

En un caso así, de 16 GB GDDR6 y 64 GB en SSD, la memoria virtual serían de 80 GB y el desarrollador podría disponer de 80 GB, pero tendría muy presente que la memoria real es de 16 GB.

En mi trabajo, el sistema tiene cargado tanto en memoria que ni de coña llegaría con la memoria real. Trasladado a videojuegos, lo que yo pienso es que de ningún modo un desarrollador podría cargar 80 GB en una escena visible por el usuario. ¿Cuál es, entonces, la ventaja que yo veo? Que aunque sólo veas un mundo de 16 GB, lo que no es visible por el usuario está disponible tan rápido que un desarrollador podría centrarse en la calidad de lo que hay visible y el jugador no dejaría de percibir el mundo como continuo.

Más concretamente, con memoria virtual creo posible ver texturas realmente pesadas (8K), mundos enormes, muchos elementos en pantalla, una ciudad en la que todos los edificios estuvieran disponibles, etc, etc..........y sin popping.
Xlooser escribió:¿Y tú como programador tienes acceso a la paginación de Windows o swap de Linux? La memoria virtual, la de verdad, sólo la he visto en zOS.

Si se tiene. Al menos en Windows y estoy seguro que en Linux existen 2 modos de reserva de memoria:
- Reservar: se le dice al sistema que voy a necesitar ese espacio, pero sin hacer la reserva físicamente.
- Commit: se hace la reserva físicamente en la RAM.

Tu puedes reservar 30GB sin hacer un commit, en un sistema con 16GB de RAM, y el SO ya va preparando el terreno como quien dice, pero sin hacer la reserva física, aunque puede ir moviendo páginas de RAM y haciendo alguna reserva en el swap de manera poco intrusiva. A medida que vas haciendo el commit, ya se ejecuta la reserva real de todo el espacio que se va requiriendo.

No nos engañemos, no se tienen 80GB, se tienen lo que se tengan de RAM, y la parte virtual está para facilitar el excederse de esa RAM, dicho de otra forma, no necesitar hacerse sistemas propios de streaming de datos.
Buenas, gente, una duda, al final el disco duro SSD PCI 4.0 (o como sea, el ultra-rápido), ¿se sabe si se va a usar como alguna vez he leído "selectivamente" para cargar ciertas áreas del juego, o va a ser todo el juego dentro?

Lo comento porque he estado pensando y un disco que cargue selectivamente sólo lo que vas a emplear después lo veo a día de hoy inviable, ya que la mayoría de los juegos son mundo abierto y con muchas variantes.

Me explico, imaginad un Fallout 4 con sus viajes rápidos, que puedes ir desde cualquier lugar del mapa (exterior) a cualquier otro lugar del mapa ya descubierto. ¿Cómo va a cargar la máquina ciertas texturas, elementos, si no sabe a dónde vas a ir? Y precisamente los juegos tipo Fallout/Skyrim/GTA son los que luego tienen los tiempos de carga más interminables. Quiero decir, no es la época de 16 bits, con niveles lineales, etc. Aquí lo que no es mundo abierto es "MetroidVania", o competitivos online.

En mi opinión no técnica, como usuario, creo que lo ideal sería un disco duro de al menos 1TB SSD de los ultra-rápidos, con opciones como ahora en las ONE de añadir otro SSD externo vía usb +3.0. En juegos como por ejemplo R6 Siege los mapas y operadores son aleatorios, Así que aunque todos usasen la próxima gen no podrían "pre-cargar" nada (si se hace selectivamente, se entiende. Si tienes TODO el juego ahí pues sí, claro).

Yo estoy muy hypeado con esta nueva generación, y eso que me acabo de pillar la X, pero es que el tema del SSD y los tiempos de carga me tienen tonto perdido, sobre todo para juegos en solitario con grandes mapeados. Y habrá que ver si ese disco se podrá utilizar integramente para juegos antiguos (época ONE/S/X) porque entonces sería un auténtico puntazo, de ahí mis dudas.
darksch escribió:
Xlooser escribió:¿Y tú como programador tienes acceso a la paginación de Windows o swap de Linux? La memoria virtual, la de verdad, sólo la he visto en zOS.

Si se tiene. Al menos en Windows y estoy seguro que en Linux existen 2 modos de reserva de memoria:
- Reservar: se le dice al sistema que voy a necesitar ese espacio, pero sin hacer la reserva físicamente.
- Commit: se hace la reserva físicamente en la RAM.

Tu puedes reservar 30GB sin hacer un commit, en un sistema con 16GB de RAM, y el SO ya va preparando el terreno como quien dice, pero sin hacer la reserva física, aunque puede ir moviendo páginas de RAM y haciendo alguna reserva en el swap de manera poco intrusiva. A medida que vas haciendo el commit, ya se ejecuta la reserva real de todo el espacio que se va requiriendo.

No nos engañemos, no se tienen 80GB, se tienen lo que se tengan de RAM, y la parte virtual está para facilitar el excederse de esa RAM, dicho de otra forma, no necesitar hacerse sistemas propios de streaming de datos.

Se nota que no soy desarrollador..........¿Entonces, tú en el programa direccionas 30 GB? Me refiero a ¿trabajarías como si tuvieras 30 GB disponibles?

En mi trabajo, todo es un espacio de memoria, desde un usuario a un programa. Cada espacio de memoria tiene disponibles 16 Exabytes de memoria, y para ese espacio, la memoria es real, aunque para el administrador la realidad sea que cuenta con una memoria mucho menor. Así, los datos tienen que estar continuamente en movimiento dependiendo de su uso.

Lo que yo tenía entendido de la "memoria virtual" de Windows y Linux era que sólo se utilizaba una vez superado el límite de la memoria real. Si un desarrollador trabaja con una aplicación que requiere 30 GB, ¿cómo controlaría entonces qué datos se mantienen en memoria real y qué en memoria auxiliar? ¿Cómo le afectaría el resto de aplicaciones?


No nos engañemos, no se tienen 80GB, se tienen lo que se tengan de RAM, y la parte virtual está para facilitar el excederse de esa RAM, dicho de otra forma, no necesitar hacerse sistemas propios de streaming de datos.

He ahí la gran diferencia de lo que yo creo que es memoria virtual y las implementaciones de Windows y Linux.

Para mi, la memoria virtual son 80 GB, que se compone de 16 GB de memoria real y 64 de auxiliar. El otro enfoque, son 16 GB de memoria y 64 GB de "memoria virtual".


@Cordovader indudablemente, ese sería el gran problema de no tener todo el juego en el SSD.

- O los viajes rápidos serían tan "rápidos" como ahora.
- O está cargado ya en memoria reduciendo así el espacio disponible para otras cosas.

Por supuesto, como bien dices, con un SSD de 1 TB no se tendría ese problema.


Si al final Scarlett tuviera 256 GB de SSD, a lo mejor Microsoft dejaría disponibles para el desarrollador más de 64 GB disponibles. Una distribución buena, a mi juicio, podría ser:

- 96 GB para trabajo.
- 16 GB para el SO.
- 96 GB para archivos de carga de los últimos 8 juegos usados (12 cada uno).
- 48 GB para archivos de carga varios.


Con 96 GB disponibles, un viaje rápido, incluso en un AAA futuro, no llevaría mucho.
A ver ese swap automático es un recurso del SO para poder superar la RAM física.

A nivel de programa puedes gestionar el uso de la memoria en esos 2 niveles.

Si en un ordenador no puedes hacer uso exhaustivo, y se debe hacer más general (reservada y commit para materializarlo), es porque el sistema no te puede garantizar que se vaya a tener una cierta cantidad de memoria en un determinado momento, ya que existirán otras cosas cargadas (indeterminadas), no es como en consola que te garantizan X GB libres sólo para tu juego, entonces debe ser gestionado por el SO y se dan unas herramientas al desarrollador para ayudar a optimizar dicha gestión.

https://docs.microsoft.com/en-us/windows/win32/memory/reserving-and-committing-memory
https://docs.microsoft.com/es-es/windows/win32/api/memoryapi/nf-memoryapi-virtualalloc
Ver parámetro flAllocationType.

Aún así, lo más normal es eso, que se vaya reservando siempre y el sistema tirará de swap en caso necesario. Es parte de lo que se conoce como no optimización en PC, yo lo pido todo y ale si no tienes bastante te metes más RAM que para eso la venden.
Además me parece que este nivel de control sólo se tiene en C++ con las libs directas. En C#, NET Framework, y otros sistemas gestionados, es dicho sistema quien administra el uso de la RAM y cómo la pide.
Cordovader escribió:Buenas, gente, una duda, al final el disco duro SSD PCI 4.0 (o como sea, el ultra-rápido), ¿se sabe si se va a usar como alguna vez he leído "selectivamente" para cargar ciertas áreas del juego, o va a ser todo el juego dentro?

Lo comento porque he estado pensando y un disco que cargue selectivamente sólo lo que vas a emplear después lo veo a día de hoy inviable, ya que la mayoría de los juegos son mundo abierto y con muchas variantes.

Me explico, imaginad un Fallout 4 con sus viajes rápidos, que puedes ir desde cualquier lugar del mapa (exterior) a cualquier otro lugar del mapa ya descubierto. ¿Cómo va a cargar la máquina ciertas texturas, elementos, si no sabe a dónde vas a ir? Y precisamente los juegos tipo Fallout/Skyrim/GTA son los que luego tienen los tiempos de carga más interminables. Quiero decir, no es la época de 16 bits, con niveles lineales, etc. Aquí lo que no es mundo abierto es "MetroidVania", o competitivos online.

En mi opinión no técnica, como usuario, creo que lo ideal sería un disco duro de al menos 1TB SSD de los ultra-rápidos, con opciones como ahora en las ONE de añadir otro SSD externo vía usb +3.0. En juegos como por ejemplo R6 Siege los mapas y operadores son aleatorios, Así que aunque todos usasen la próxima gen no podrían "pre-cargar" nada (si se hace selectivamente, se entiende. Si tienes TODO el juego ahí pues sí, claro).

Yo estoy muy hypeado con esta nueva generación, y eso que me acabo de pillar la X, pero es que el tema del SSD y los tiempos de carga me tienen tonto perdido, sobre todo para juegos en solitario con grandes mapeados. Y habrá que ver si ese disco se podrá utilizar integramente para juegos antiguos (época ONE/S/X) porque entonces sería un auténtico puntazo, de ahí mis dudas.

Creo que lo que comentas es la demostración que hubo de la carga ultra rápida del mapa por parte de Sony no? No sé si lo viste o es otra cosa a lo que te refieres.
Xlooser escribió: @Cordovader indudablemente, ese sería el gran problema de no tener todo el juego en el SSD.

- O los viajes rápidos serían tan "rápidos" como ahora.
- O está cargado ya en memoria reduciendo así el espacio disponible para otras cosas.

Por supuesto, como bien dices, con un SSD de 1 TB no se tendría ese problema.


Si al final Scarlett tuviera 256 GB de SSD, a lo mejor Microsoft dejaría disponibles para el desarrollador más de 64 GB disponibles. Una distribución buena, a mi juicio, podría ser:

- 96 GB para trabajo.
- 16 GB para el SO.
- 96 GB para archivos de carga de los últimos 8 juegos usados (12 cada uno).
- 48 GB para archivos de carga varios.


Con 96 GB disponibles, un viaje rápido, incluso en un AAA futuro, no llevaría mucho.


Es otra opción lo que dices, sin duda.

Hombre, yo tengo claro que ni Microsoft (ni Sony, ni Nintendo) son tontos, y no van a hacer una chapuza con sus consolas, en este caso referente al SSD y los tiempos de carga (y más con la brasa que está dando Sony justo con eso y la PS5).

Mi gran duda será cómo administran eso los juegos (¿todos los del futuro se beneficiarán, o los programadores tendrá que hacer "sus apaños" y dependerá por tanto del juego y de la compañía?) y también como afecterán a los juegos de esta gen actual, más que nada porque una retrocompatibilidad en donde cualquier juego actual fuese, no sé, al menos 10 veces más rápido al cargar sería una gozada. Por mucho que sigamos comprando juegos nuevos, no vamos a dejar de lado a juegazos actuales.

@Mj90, más o menos, sí, adaptando a la Xbox y mis intereses. Es obvio que si cambia la tecnología de disco duro vamos a notar cambios muy gordos en tiempos de carga. El tema será cómo se aplicará eso, por si había alguna novedad o alguien tenía más información, y que es un tema que me interesa mucho, tanto para futuros juegos como para actuales.
Noctisblue está baneado por "Saltarse el ban con un clon"
OFICIAL PS5 costara 800€.

Fuente: Micheal Patcher.
Noctisblue escribió:OFICIAL PS5 costara 800€.

Fuente: Micheal Patcher.


Sí, pero 2x1.
Noctisblue está baneado por "Saltarse el ban con un clon"
Lammothh escribió:
Noctisblue escribió:OFICIAL PS5 costara 800€.

Fuente: Micheal Patcher.


Sí, pero 2x1.


jajajjajaja un dia alguna de sus locuras se hara realidad. madre mia ,pero de verdad le pagan por decir lo que se le viene a la cabeza?

PD: Aunque si tengo claro que sera mas cara que xbox y menos potente. Espero que almenos el SSD de sony sea mas bueno que el de Xbox
Pienso justo lo contrario, PS5 más barata y más potente pero menos avanzada y eficiente que Scarlett.
Noctisblue escribió:OFICIAL PS5 costara 800€.

Fuente: Micheal Patcher.


Mi vecino dice que la barra de pan costará 1,06€ en 2021. Lo ha calculado con su cipote mágico.
malosoxxx escribió:
Noctisblue escribió:OFICIAL PS5 costara 800€.

Fuente: Micheal Patcher.


Mi vecino dice que la barra de pan costará 1,06€ en 2021. Lo ha calculado con su cipote mágico.


Espero que no se tenga que frotar para que haga los calculos
THANOS-TITAN-Z escribió:
malosoxxx escribió:
Noctisblue escribió:OFICIAL PS5 costara 800€.

Fuente: Micheal Patcher.


Mi vecino dice que la barra de pan costará 1,06€ en 2021. Lo ha calculado con su cipote mágico.


Espero que no se tenga que frotar para que haga los calculos


Es justo lo que hay que hacer...
Simplificando mucho, porque todos sabemos que esto no es lineal (pero mola especular):

Imagen

Puede que la CPU de Scarlett ande cerca. ¿Cómo he llegado a esta conclusión?

Empecemos por este benchmark. Es de la PS4 Pro, pero sabiendo que la arquitectura es la misma y con una simple regla de 3 podemos suponer que, en bruto, la CPU de Xbox One X daría 8338 puntos. Por supuesto obviando todas las optimizaciones de Microsoft, que son realmente las que han hecho posible alcanzar el rendimiento que vemos.

Atendiendo al x4 que mencionó Phil Spencer, podemos esperar una CPU de 33353 puntos. Además de esto, toooodas las optimizaciones que doy por seguro que tendrá, al menos al nivel de la X (mejores latencias y DX12 por hardware).

Otras CPUs alrededor de 33358 puntos:

AMD Ryzen Threadripper 2920X - 32503
AMD Ryzen 7 3700X - 33956
Intel Core i9-9900K - 34199

CPU benchmarks


P.D: sí, estoy muy flipao. Ya aviso que en EOL no hay vinagre suficiente para hacerme ver "la triste realidad a la que estamos condenados los consoleros". Ahh, y pienso que la CPU de Scarllet rendirá mejor que el i9-9900K.

Scarlett > i9-9900K + RTX2080TI
Creo que en ningun momento al hablar de los componentes que podria llevar la consola estas teniendo en cuenta la barrera infranqueable del consumo

Por tamaño,calor y consumo el total de las consolas nunca pasa de 200w asi que haber como metes todo sabiendo los comsumos de amd a 7nm y que no llegue a los 200w
chris76 escribió:Creo que en ningun momento al hablar de los componentes que podria llevar la consola estas teniendo en cuenta la barrera infranqueable del consumo

Por tamaño,calor y consumo el total de las consolas nunca pasa de 200w asi que haber como metes todo sabiendo los comsumos de amd a 7nm y que no llegue a los 200w


Yo supongo que repetirán jugada como en la X, usaran los chips con todos o casi todos los cores y CUs pero a casi la mitad de frecuencias. Aparte de alguna que otra optimización interna de consumo. No creo que llegue a la potencia bruta de i79900+2080Ti pero si a un resultado parecido debido a la malisima optimización que se hace en PC.
chris76 escribió:Creo que en ningun momento al hablar de los componentes que podria llevar la consola estas teniendo en cuenta la barrera infranqueable del consumo

Por tamaño,calor y consumo el total de las consolas nunca pasa de 200w asi que haber como metes todo sabiendo los comsumos de amd a 7nm y que no llegue a los 200w


Core i5-8259U - 15793 puntos - TDP 28w
Core i7-7700 - 15853 puntos - TDP 65w
Core i7-8559U - 17642 puntos - TDP 28w
Core i7-7700K - 18856 puntos - TDP 91w

Ya ves que no es proporcional. Aparte, el nodo 7nm dobla la eficiencia energética.
@Xlooser una pregunta, si va a llevar AMD; ¿Por qué todos esos que pones son Intel?
Eaniel Kashal escribió:@Xlooser una pregunta, si va a llevar AMD; ¿Por qué todos esos que pones son Intel?

Porque el i5-8259U es el procesador que yo tengo (Intel NUC8) y es lo que estuve viendo antes de comprar un miniPC.

Sobre Ryzen puedes sacar la misma conclusión, que el consumo y rendimiento varía mucho de un procesador a otro, que no necesariamente van de la mano y en la misma proporción.
@Xlooser Oki, es por si era por algo concreto.
@Chris76 respecto al consumo, acabo de mirar que la X son 245W y que el Ryzen 7 3700X—8C/16T, 3.6GHz to 4.4GHz son 65W TDP. Hay tela de margen, yo creía que era menos la verdad. Puede hacerse algo muy tocho con 245W de margen si está bien optimizado, lo que se presupone que si. El "problema", es la parte gráfica, que es donde supongo usaran más CUs y menos frecuencia como en la X.

Edito: se que los 245W son del conjunto de la consola entera, solo uso la cifra como aproximación. También es seguro que el consumo de la CPU no serán 65W a pelo, si no menos.
malosoxxx escribió:@Chris76 respecto al consumo, acabo de mirar que la X son 245W y que el Ryzen 7 3700X—8C/16T, 3.6GHz to 4.4GHz son 65W TDP. Hay tela de margen, yo creía que era menos la verdad. Puede hacerse algo muy tocho con 245W de margen si está bien optimizado, lo que se presupone que si. El "problema", es la parte gráfica, que es donde supongo usaran más CUs y menos frecuencia como en la X.

Edito: se que los 245W son del conjunto de la consola entera, solo uso la cifra como aproximación. También es seguro que el consumo de la CPU no serán 65W a pelo, si no menos.

Ese dato es de la fuente de la alimentación. El juego que más consume, que se haya medido, es el Gears 4 en 4K en una de las X que consumen (y suenan) más que la media, 189w (174w en otra X). Puede que otro juego ponga la X a más revoluciones, aunque no creo que mucho. El TDP tampoco es el consumo real, pero es una buena aproximación para comparar.

En 2020 veremos que 200w dan para mucho más de lo que pensamos.

Ryzen 7 3700X—8C/16T, 3.6GHz to 4.4GHz son 65W TDP.

Ésta quizá sea una CPU más parecida a la de Scarlett que el Ryzen 3800X. Y no creo que la de Scarlett supere los 3-3.2 GHz de base.
Las consolas que mas consumo tuvieron sino recuerdo mal fueron las primeras x360 y ps3 rondando los 200w y poco

Teniendo los rizen 7nm y las gpu 5700 yo conjeturaria sobre ellas.no sobre intel para saber hasta donde pueden llegar por consumo en una consola actualmente
chris76 escribió:Las consolas que mas consumo tuvieron sino recuerdo mal fueron las primeras x360 y ps3 rondando los 200w y poco

Teniendo los rizen 7nm y las gpu 5700 yo conjeturaria sobre ellas.no sobre intel para saber hasta donde pueden llegar por consumo en una consola actualmente

Sólo puse los procesadores Intel para demostrar que el rendimiento de un procesador no se basa sólo en su consumo.
Xlooser escribió:
P.D: sí, estoy muy flipao. Ya aviso que en EOL no hay vinagre suficiente para hacerme ver "la triste realidad a la que estamos condenados los consoleros". Ahh, y pienso que la CPU de Scarllet rendirá mejor que el i9-9900K.

Scarlett > i9-9900K + RTX2080TI


Lo que no estás teniendo en cuenta, es que por mucha optimización en consolas que haya, en hardwares cerrados hay un problema de límite de consumo/calor que restringe su rendimiento comparado con un Pc con una i9-9900k+RTX2080Ti funcionando a full de sus capacidades.

Vamos, que id comprando klinex en días de oferta para cuando llegue la realidad y os arrolle... [+risas]

P.D Tanto al hilo de Ps5 como al de Scarlet les vendría bien una buena rebaja de expectativas emo :o
Exacto porque por mucho que queramos no van a consumir mas de 200w,y la potencia no sale de la magia
Xbox One X es buena muestra de que en 2017 llegaron a acercarse al rendimiento en juegos de un i5 + una 1070 GTX consumiento mucho menos.

MAgia no van a hacer. Pero i+d si.
Aquaslo está baneado por "Saltarse el ban con un clon"
eloskuro escribió:Xbox One X es buena muestra de que en 2017 llegaron a acercarse al rendimiento en juegos de un i5 + una 1070 GTX consumiento mucho menos.

MAgia no van a hacer. Pero i+d si.


Una de las pocas respuestas coherentes del hilo.

La X es un ejemplo claro de la inversion I+D de una empresa. No todas pueden decir lo mismo.

https://twitter.com/klobrille/status/11 ... 76896?s=19
La ciencia es magia para los que no conocen la ciencia.


chris76 escribió:Exacto porque por mucho que queramos no van a consumir mas de 200w,y la potencia no sale de la magia

Un chip fabricado en un nodo de 14 nm que consume 200w, consumiría 100w fabricado en 7nm.


@IridiumArkangel jajaja, sabía que serías tú el primero en traernos esa "dosis de realidad".
Xlooser escribió:
Un chip fabricado en un nodo de 14 nm que consume 200w, consumiría 100w fabricado en 7nm.



Ojalá funcionara así
eloskuro escribió:Xbox One X es buena muestra de que en 2017 llegaron a acercarse al rendimiento en juegos de un i5 + una 1070 GTX consumiento mucho menos.

MAgia no van a hacer. Pero i+d si.

Eso es optimizacion en un hardware cerrado
Xlooser escribió:
@IridiumArkangel jajaja, sabía que serías tú el primero en traernos esa "dosis de realidad".


Y eso es bueno o malo!? XD

Llevo demasiados palos generación tras generación y los límites del hardware cerrado son los que son. Presupuestos limitados, techos de consumo y problemas con las disipación. Y el majienio es marca registrada de Nintendo... jajaja

P.D Pero vamos, ojalá lleves razón y la máquina supere ese pepino de Pc que dices.
195562 respuestas