Hablemos de las nuevas consolas

Encuesta
¿La retrocompatibilidad es importante a la hora de comprar una consola nueva?
77%
1261
10%
166
13%
209
Hay 1636 votos.
EMAIRXEN escribió:Lo del HDMI 2.1 de PS5 ya se ha comentado, tenéis un video explicativo de HDTVTest, y ahora mismo, con el ancho de banda que tiene la consola, se puede decir que no es un HDMI 2.1 completo, ya que no es capaz de cumplir todo el estándar HDMI 2.1, pero lo mas grave es que Sony anuncia el 8K en su caja y en realidad no es capaz de mostrarlo...

Actualmente PS5 sólo es capaz de mostrar hasta 4K 60Hz 4:4:4 o 4K 120Hz 4:2:2, es decir, en los modos de 120 FPS PS5 pierde gama de colores respecto a XSX que si es capaz de mostrar los 4:4:4.

Saludos.

Ninguna de las 2 consolas da para 4k 120Hz y eso sony lo sabe,para que quieres eso si jamás lo vas a ver en esas consolas?
Ya que lleguen a 4k 60fps y no le pidas RT ni nada y con la moda del RT de aqui a unos años todo con RT 4k@30fps
Ya lo verás
Estais discutiendo un cable,os dais cuenta?un puñetero cable que no va a llegar a usarse en todo eso que discutis
Homelander está baneado por "Troll"
albert89 escribió:
EMAIRXEN escribió:Lo del HDMI 2.1 de PS5 ya se ha comentado, tenéis un video explicativo de HDTVTest, y ahora mismo, con el ancho de banda que tiene la consola, se puede decir que no es un HDMI 2.1 completo, ya que no es capaz de cumplir todo el estándar HDMI 2.1, pero lo mas grave es que Sony anuncia el 8K en su caja y en realidad no es capaz de mostrarlo...

Actualmente PS5 sólo es capaz de mostrar hasta 4K 60Hz 4:4:4 o 4K 120Hz 4:2:2, es decir, en los modos de 120 FPS PS5 pierde gama de colores respecto a XSX que si es capaz de mostrar los 4:4:4.

Saludos.

Ninguna de las 2 consolas da para 4k 120Hz y eso sony lo sabe,para que quieres eso si jamás lo vas a ver en esas consolas?
Ya que lleguen a 4k 60fps y no le pidas RT ni nada y con la moda del RT de aqui a unos años todo con RT 4k@30fps
Ya lo verás
Estais discutiendo un cable,os dais cuenta?un puñetero cable que no va a llegar a usarse en todo eso que discutis


Pues para no dar llevo jugando desde el 23 de noviembre a 120 fps en el rainbow six siege, eso sí, resolución dinámica pero no podría estar más contento.

Discuten por hdmi porqué no tienen nada más por lo que discutir, así se apuntan el tanto de la mía es mejor y pueden dormir tranquilos.
El hilo esta para hablar de estas cosas, hay a gente que le interesa saberlo, no hablamos de un cable HDMI, hablamos del ancho de banda que tiene ambas consolas en su HDMI 2.1, aunque puedo entender perfectamente que a la mayoría no os interese esto.

Ferdopa escribió:
se puede decir que no es un HDMI 2.1 completo, ya que no es capaz de cumplir todo el estándar HDMI 2.1

El ancho de banda, y si en el caso de Xbox Series X lo han actualizado por firmware por favor corregidme, no llega al máximo en ninguna consola.


En XSX llega a 40Gbps, es decir, puede mostrar 8K 4:4:4 a 30 FPS, que es lo máximo que nos van a mostrar estas consolas.

Ferdopa escribió:en los modos de 120 FPS PS5 pierde gama de colores respecto a XSX que si es capaz de mostrar los 4:4:4.

No entiendo lo de perder gama de colores. La gama de color es la misma.

La diferencia entre submuestreo y señal completa, cómo se recupera y su efectividad en la practica se ha explicado infinidad de veces.


Entre un chroma 4:4:4 y otro 4:2:2 o inferior lo que se hace es ocultar información de color por cada pixel, es decir, si quieres una imagen real necesitas el 4:4:4, por lo que si no se muestra el chroma 4:4:4 hay perdida de información de color, ya que la imagen tiene compresión en ese aspecto para ahorrar ancho de banda, aunque también es cierto que la mayoría de lo que se oculta es prácticamente imperceptible para el humano.

Este es un test de chroma 4:4:4, para que veáis como afecta también a los colores que se muestran en pantalla, hay algunos que no es capaz de mostrar el video comprimido porque esa información se ha ocultado:
https://www.youtube.com/watch?v=TgMboNGODxs

Saludos.
albert89 escribió:
EMAIRXEN escribió:...

Ninguna de las 2 consolas da para 4k 120Hz y eso sony lo sabe,para que quieres eso si jamás lo vas a ver en esas consolas?
Ya que lleguen a 4k 60fps y no le pidas RT ni nada y con la moda del RT de aqui a unos años todo con RT 4k@30fps
Ya lo verás
Estais discutiendo un cable,os dais cuenta?un puñetero cable que no va a llegar a usarse en todo eso que discutis

Que no den, no significa que no funcionen así.

Hay que aprender a diferenciar la resolución de renderizado de la resolución de salida.

Aunque un juego esté funcionando a 1080p/120 HDR en el renderizado, si tienes la consola configurada como 4K/120 HDR, la salida la hará con dichas características y necesitarás el ancho de banda en el HDMI correspondiente a 4K/120 HDR.

Además, ese es el "problema" con la consola de Sony, si quieres HDR y 120Hz, que, o pones 4K/120 HDR 4:2:2, o pones 1080p/120 HDR 4:4:4, no tienes opción de poner 1440p, aunque el juego se esté ejecutando en una resolución intermedia.
@papatuelo Dolby Vision son 12 bits? Hay alguna tele en el mercado doméstico de 12 bits? Pregunto.

Off-topic: La verdad que los ~790 nits de mi LG C9 empiezan a parecerme muy muy pocos.

Un saludo,
@SnakeElegido las oled tienen "peor" hdr por no llegar a muchos nits pero a cambio tienen otras cosas mejores.
Grinch escribió:@SnakeElegido las oled tienen "peor" hdr por no llegar a muchos nits pero a cambio tienen otras cosas mejores.


El HDR no depende exclusivamente de los nits, dicho por gente con conocimientos como tocinillo, una Oled necesita menos nits para ofrecer la misma experiencia que un LED debido a su contraste y demás.

Aquí hablan algo del tema...
https://www.google.com/amp/s/www.xataka ... amente/amp

Yo actualmente tengo una C7 de LG y una 9096 de Sony y el mejor HDR me lo da la Oled.
@pers46 el hdr entre otras cosas necesita nits( creo el HDR10 es hasta 1000nits, a mas mejor) Cosa que las oleds no ofrecen tanto como las qled por ejemplo.
No quiero decir que sea un mal hdr. Pero si por ejemplo que oled vs qled
Oled consigue negros perfectos
Qled tiene mas luminosidad

Por eso digo que el hdr es peor ... no malo.
pers46 escribió:
Grinch escribió:@SnakeElegido las oled tienen "peor" hdr por no llegar a muchos nits pero a cambio tienen otras cosas mejores.


El HDR no depende exclusivamente de los nits, dicho por gente con conocimientos como tocinillo, una Oled necesita menos nits para ofrecer la misma experiencia que un LED debido a su contraste y demás.

Aquí hablan algo del tema...
https://www.google.com/amp/s/www.xataka ... amente/amp

Yo actualmente tengo una C7 de LG y una 9096 de Sony y el mejor HDR me lo da la Oled.


Así es, el tema fundamental es el contraste, y por eso una oled, al apagar píxeles y conseguir un negro total, tiene contrastes infinitos y colores que saltan/viven de una manera exagerada, aún teniendo la mitad de bits que paneles que, a la postre, ofrecen un negro que siempre será algo gris en contraposición a un color, por ello el contraste y "pop" puede incluso llegar a ser peor.

Lo que pasa es que la gente no suele saberlo y, como siempre, se quedan con el numerito de marras xD
@tiku

El contraste es la diferencia entre la parte más oscura de una imagen y la más clara. Si un panel es capaz de entregar un color negro puro, no tiene que hacer que las partes brillantes brillen más de la cuenta para mantener un nivel de contraste. En ese sentido, los paneles OLED tienen una enorme ventaja con respecto a los QLED dado que como hemos explicado son los únicos capaces de mostrar negros puros, dado que apagan directamente esos píxeles de la imagen.

Ganador: OLED.

Brillo
En términos de brillo la situación cambia de tornas. Dado que los paneles QLED dependen de una matriz LED por detrás (LED backlighting) tienen una gran ventaja con respecto a la intensidad de la luz que pueden emitir con respecto a esa iluminación LED individual que tienen las pantallas OLED, y por lo tanto el brillo máximo de éstas pantallas es muy superior a la de las OLED.

Ganador: QLED.

Es a lo que me refiero

Luego hay mil y un factor mas para elegir una tele u otra.
Eso esta claro .
Pero el HDR es verdad hace un uso abusivo de la luz/brillo

( y mi mayor miedo a sus quemados xD)

Es mas esto es como los vs de consolas la mayoria ni notariamos la diferencia
Yo creo que entre OLED y QLED quedan en

EMPATE
Jur...

@papatuelo

Sigo sin entender muy bien lo que quieres decir

Una señal HDR 10bit 4:2:2/4:2:0 no es de palo, si es a lo que te refieres entre la diferencia 4:4:4 y las señales submuestreadas.

El HDR de las películas 4K es 10bit 4:2:0 (por ejemplo). No hace falta 4:4:4 para tener HDR.

Sobre Dolby Vision, la señal 12 bits (que sigue siendo subsampleada por ejemplo en las películas) es engañosa, porque (y de manera muy resumida) el estandar que se utiliza a día de hoy de Dolby Vision es una señal HDR10 (10 bit) y dos bits de metadatos.

Y digo de manera muy resumida porque hay dos tipos de contenidos Dolby Vision: los MEL (capa de mejora de 10bit), y los FEL (capa de mejora completa 12bit).

Incluso dentro de las capas hay señales/películas que apenas utilizan las posibilidades de mejora y otras que aprovechan mucho ancho de banda de metadata.

Hace años hablé de cómo nació el DV, lo que iba a ser y lo que podía suponer. Al final quedó en prácticamente una especie de contraste dinámico.

La señal DV (y también de manera muy resumida) estaba diseñada en un principio para funcionar de la siguiente manera: la señal Dolby Vision podía enviarse usando una única señal principal HEVC10 o bien dos señales AVC8 o HEVC8 (o HEVC10). En el caso de la señal principal HEVC 10 ésta se decodifica por un decodificador HEVC estandar... y después es postprocesada usando el módulo/proceso/compositor Dolby Vision que produce el rango de 12bit con metadata dinámico (señal YUV 420).

Al final y a día de hoy todo eso se perdió, y básicamente es la señal HDR10 con una capa de mejora/contraté dinámico.

Hasta tenía que calibrarse de una manera diferente. La norma de Dolby obligaba a tener unos patrones y pautas descargables en los programas de calibración, y que eran datos por el propio fabricante, las denominadas "Golden Reference", de las que solo Vizio entregó algunas y LG lo hizo de modo beta.




Entre un chroma 4:4:4 y otro 4:2:2 o inferior lo que se hace es ocultar información de color por cada pixel, es decir, si quieres una imagen real necesitas el 4:4:4, por lo que si no se muestra el chroma 4:4:4 hay perdida de información de color

Es que hablaste de que "pierde gama de colores", lo que no es cierto.

La gama de colores viene dada por la profundidad de color y el espacio de color utilizado.

Puedes subsampleada una señal cuanto quieras, que el espacio de color (REC2020, por ejemplo) y su profundidad (10bit, por ejemplo) seran la misma.

El subsampleo no es o ocultar información a los pixeles, es eliminarla. Sin embargo si sólo fuera eliminarla tú imagen en pantalla tendría puntos negros, inconsistencias e imágenes bastante feas a la vista.

Esa información que se elimina se recupera mediante un algoritmo y a la información de píxeles continuos/adyacentes.

Mientras menos resolución tenga la señal, más difícil es recuperar la información. Por eso, y por ejemplo, muchos reproductores DVD de hace 20 años tenían el conocido "chroma bug" (algunos procesadores de imagen no daban con los resultados correctos en resoluciones tan bajas y por el tipo de escaneo).

A día de hoy con la cantidad de píxeles que tienen las resoluciones actuales no es un problema, y distinguir entre una señal 4:4:4 y una 4:2:0 es casi imposible.

Nada que no hayamos comentado desde hace años en el foro.


También es importante, para centrar el tema en las consolas PS5 y Xbox Series X, el enfoque que le da MS y Sony a sus consolas.

Es importante no perder de vista el aspecto de que los televisores están pensados para trabajar señales de televisión... y estas son YUV, mientras que los monitores están pensados para trabajar señales de ordenador... y está son RGB.

Sony apuesta tradicionalmente por los estándares de TV (de ahí que pase por lo menos de momento de la salida nativa 1440p y se guíe más por los estándares UHDTV) , mientras que MS piensa también en los usuarios de monitores (de ahí que también apuesten por señales 1140p).


@SnakeElegido

Lo del Dolby ya lo he comentado arriba, pero TV con procesos 12bit de color hay varias desde hace años. Otro tema es tener paneles 12bit nativos.

La principal diferencia en la practica entre 8-10-12bit es que se reproduce menos "banding" en la imagen (lo de los millones de colores de 10 a 12bit es literalmente imposible de diferenciar).

Tener banding con una señal 10bit es complicado, salvo que ese banding exista en el propio material o la calidad dea transmisión/resolución sea pobrisima.




Lo de los nits en HDR es un debate más complicado (si queréis abrimos ese melón).

Si centramos el tema en el HDR de los juegos de Xbox Series X y PS5 (y en la generación anterior) en algunos casos sólo convierten la señal SDR a HDR.

En el modo retrocompatibilidad Xbox Series X se basa en el proceso HDR de Gears 5 y han hecho una tabla 3D Lut (le podeis llamar algoritmo si es más sencillo) basada en los cambios necesarios en la señal SDR para que al activar el HDR se parezca lo máximo posible a la HDR original.

Es decir, se aplica ese 3D Lut/algoritmo a la señal nativa SDR antes del HDR. Cuando activas la señal HDR, ésta aplica la luminosidad máxima y mínima (0,005-4.000, que es la que utiliza Gears 5) y convierte el REC 709 con un filtro de conversión "3Dluteado" a REC 2020.

Un saludo.
@Ferdopa Un placer leerte como siempre
Grinch escribió:@pers46 el hdr entre otras cosas necesita nits( creo el HDR10 es hasta 1000nits, a mas mejor) Cosa que las oleds no ofrecen tanto como las qled por ejemplo.
No quiero decir que sea un mal hdr. Pero si por ejemplo que oled vs qled
Oled consigue negros perfectos
Qled tiene mas luminosidad

Por eso digo que el hdr es peor ... no malo.


Los nits son solo una parte de la ecuación, las oled parten del 0 absoluto para el negro, las led mínimo 0.05.

Una Oled con la mitad de nits puede, no lo digo yo, tener mejor HDR que una LED.

@ferdopa a mi me interesa abrir ese melón, que seguro aprendemos crack.
Grinch escribió:@tiku

El contraste es la diferencia entre la parte más oscura de una imagen y la más clara. Si un panel es capaz de entregar un color negro puro, no tiene que hacer que las partes brillantes brillen más de la cuenta para mantener un nivel de contraste. En ese sentido, los paneles OLED tienen una enorme ventaja con respecto a los QLED dado que como hemos explicado son los únicos capaces de mostrar negros puros, dado que apagan directamente esos píxeles de la imagen.

Ganador: OLED.

Brillo
En términos de brillo la situación cambia de tornas. Dado que los paneles QLED dependen de una matriz LED por detrás (LED backlighting) tienen una gran ventaja con respecto a la intensidad de la luz que pueden emitir con respecto a esa iluminación LED individual que tienen las pantallas OLED, y por lo tanto el brillo máximo de éstas pantallas es muy superior a la de las OLED.

Ganador: QLED.

Es a lo que me refiero

Luego hay mil y un factor mas para elegir una tele u otra.
Eso esta claro .
Pero el HDR es verdad hace un uso abusivo de la luz/brillo

( y mi mayor miedo a sus quemados xD)

Es mas esto es como los vs de consolas la mayoria ni notariamos la diferencia


Tengo dos TV, una Samsung Q70R qled y una Philips 804OLED

No quiero el qled ni regalado y eso que tiene freesync.
@bigfoot_ hay teles y teles. Yo he visto la q95t y puff la prefiero a la oled.

Pero tengo el problema de que no quiero 55" asi que tendria que pillar la oled pero no quiero quemados .. asi que ando en bucle.

Al final tirare una moneda xD
Homelander está baneado por "Troll"
@Ferdopa Anda que no se nota cuando alguien sabe de lo que habla. Un placer leerte y aprender un poco sobre todo esto.
Grinch escribió:@bigfoot_ hay teles y teles. Yo he visto la q95t y puff la prefiero a la oled.

Pero tengo el problema de que no quiero 55" asi que tendria que pillar la oled pero no quiero quemados .. asi que ando en bucle.

Al final tirare una moneda xD

Los quemados son cosa del pasado y no es coña
Grinch escribió:@bigfoot_ hay teles y teles. Yo he visto la q95t y puff la prefiero a la oled.

Pero tengo el problema de que no quiero 55" asi que tendria que pillar la oled pero no quiero quemados .. asi que ando en bucle.

Al final tirare una moneda xD


Quemados no vas a tener, supongo que te refieres a la retención de imagen que eso sí lo tienes garantizado en una OLED. Lo digo por experiencia propia. Sobre todo a partir del tercer año o así.
Mi opinión sobre las Oled después de pasar por casi todas las tecnologías de TV...

Cada persona puede tener las preferencias que quiera, pero a mi me cuesta mucho entender a alguien que teniendo OLED en casa prefiera otra tecnología. En una tienda es distinto porque las virtudes de las OLED se ven perjudicadas.

En el pasado nunca entendí que la gente "pasara" del Plasma, cuando además estaban más baratos en muchas ocasiones, y ahora tampoco lo entiendo. Ahora mismo estoy mirando una QLED de 55" y se me escapan los ojos a los defectos que tiene.

Fue comprar un OLED y olvidarme de fugas de luz, ángulos limitados y negros grises. Las Oled tienen sus problemas, el tema quemados siempre estará ahí, aunque parece subsanado, y el movimiento no es comparable con los PDP, que en mi opinión no se ha conseguido igualar. Además para instancias muy iluminadas puede ser un problema los reflejos. Pero es una de esas compras que ves redonda, he estado lustros detrás de una tecnología que no me "jodisese" el visionado de contenido, siempre le estaba sacado defectos a la TV, pero con la OLED te sientas y disfrutas. No se puede explicar lo mucho que importa el negro puro.

Es algo que se me escapa, pero cada uno tiene sus preferencias.
pers46 escribió:Mi opinión sobre las Oled después de pasar por casi todas las tecnologías de TV...

Cada persona puede tener las preferencias que quiera, pero a mi me cuesta mucho entender a alguien que teniendo OLED en casa prefiera otra tecnología. En una tienda es distinto porque las virtudes de las OLED se ven perjudicadas.

En el pasado nunca entendí que la gente "pasara" del Plasma, cuando además estaban más baratos en muchas ocasiones, y ahora tampoco lo entiendo. Ahora mismo estoy mirando una QLED de 55" y se me escapan los ojos a los defectos que tiene.

Fue comprar un OLED y olvidarme de fugas de luz, ángulos limitados y negros grises. Las Oled tienen sus problemas, el tema quemados siempre estará ahí, aunque parece subsanado, y el movimiento no es comparable con los PDP, que en mi opinión no se ha conseguido igualar. Además para instancias muy iluminadas puede ser un problema los reflejos. Pero es una de esas compras que ves redonda, he estado lustros detrás de una tecnología que no me "jodisese" el visionado de contenido, siempre le estaba sacado defectos a la TV, pero con la OLED te sientas y disfrutas. No se puede explicar lo mucho que importa el negro puro.

Es algo que se me escapa, pero cada uno tiene sus preferencias.

Tiene que ser cojonudo un panel de esos a oscuras y en una sala dedicada no te quiero decir nada
@KinderRey retenciones/quemados. Eso mismo

La cosa que hay gente que dice que sigue pasando,otros como @bigfoot_ que no.. y supongo sera suerte o uso que le des...

Ya digo por ahora yo me quedaria con la q95t pero solo esta de 55( con 120hz) y se me queda grande
Y la que se queda bien 48" es la cx pero tiene los quemados/retenciones.


Por eso digo que al final o una moneda o escribo a los reyes ... no para pedirles la tele sino que me traigan un sobre con la eleccion xD


EDITO


PEDAZO DE offtopic me he marcado disculpad.
Las del año pasado ya con el refresco de pixeles parece bastante esperanzador: https://www.youtube.com/watch?v=SlP2kwNqXNA
Grinch escribió:@bigfoot_ hay teles y teles. Yo he visto la q95t y puff la prefiero a la oled.


Esa se acaba de comprar un amigo porque le enseñé la q90r y flipaba. Venia de un OLED que le dio algún problemilla.
SnakeElegido escribió:@papatuelo Dolby Vision son 12 bits? Hay alguna tele en el mercado doméstico de 12 bits? Pregunto.

Off-topic: La verdad que los ~790 nits de mi LG C9 empiezan a parecerme muy muy pocos.

Un saludo,


12 bits tiene la C9

Y eso de 790 pocos es muy relativo, xq al alcanzarse el negro absoluto la diferencia entre unas zonas y otras hacen que parezcan más.

Una oled puedes verla completamente a oscuras viendo negros completamente puros, en esas condiciones tu propios ojos recogen más luz de los puntos iluminado. De hecho te aseguro que a mi personalmente al 100% de luminosidad a oscuras, una zona iluminada me llega a parecer demasiado sobre todo si la escena en sí es oscura.

Además, al menos en las Qled contemporaneas a la C9 (no sé si pasará lo mismo a día de hoy) por mucho Fald que hubiera cuando activabas el modo juego la diferencia entre una oled y una led era abismal.

bigfoot_ escribió:
Grinch escribió:@tiku

El contraste es la diferencia entre la parte más oscura de una imagen y la más clara. Si un panel es capaz de entregar un color negro puro, no tiene que hacer que las partes brillantes brillen más de la cuenta para mantener un nivel de contraste. En ese sentido, los paneles OLED tienen una enorme ventaja con respecto a los QLED dado que como hemos explicado son los únicos capaces de mostrar negros puros, dado que apagan directamente esos píxeles de la imagen.

Ganador: OLED.

Brillo
En términos de brillo la situación cambia de tornas. Dado que los paneles QLED dependen de una matriz LED por detrás (LED backlighting) tienen una gran ventaja con respecto a la intensidad de la luz que pueden emitir con respecto a esa iluminación LED individual que tienen las pantallas OLED, y por lo tanto el brillo máximo de éstas pantallas es muy superior a la de las OLED.

Ganador: QLED.

Es a lo que me refiero

Luego hay mil y un factor mas para elegir una tele u otra.
Eso esta claro .
Pero el HDR es verdad hace un uso abusivo de la luz/brillo

( y mi mayor miedo a sus quemados xD)

Es mas esto es como los vs de consolas la mayoria ni notariamos la diferencia


Tengo dos TV, una Samsung Q70R qled y una Philips 804OLED

No quiero el qled ni regalado y eso que tiene freesync.


Yo tengo una Q90R y venía de una C8. En mi opinión la Q90R se cruje a la C8 hasta el punto de que no voy a volver a OLED si la tecnología microled cuaja.

Los paneles OLED son fantásticos pero la gama más alta de QLED está a la par en calidad de imagen, cada tecnología con sus puntos fuertes. Otra cosa es comparar la serie C de LG (gama alta) con QLED de gama media/baja como la Q70R, que dejaba mucho que desear en muchos aspectos, sobre todo en el local dimming.
Grinch escribió:@KinderRey retenciones/quemados. Eso mismo

La cosa que hay gente que dice que sigue pasando,otros como @bigfoot_ que no.. y supongo sera suerte o uso que le des...

Ya digo por ahora yo me quedaria con la q95t pero solo esta de 55( con 120hz) y se me queda grande
Y la que se queda bien 48" es la cx pero tiene los quemados/retenciones.


Por eso digo que al final o una moneda o escribo a los reyes ... no para pedirles la tele sino que me traigan un sobre con la eleccion xD


EDITO


PEDAZO DE offtopic me he marcado disculpad.


de 2017 en adelante, las OLED de todas las marcas respetables tienen un modo especial anti-retenciones, que automáticamente mueve o desplaza los pixeles hacia los lados y de hecho yo a veces noto la imagen más cerca de un marco que de otro y las horas al revés, no te das cuenta pero lo va a haciendo pixel a pixel.

Además pasa un sistema de limpieza de píxeles cada vez que la apagas y después de 8h de uso continuado (que ya es tiempo...) te sale un mensaje que te fuerza a pasar el programa, 3 minutos para ir a mear, coger algo de picar y al volver ya puedes darle otras 8h.

Respecto a la durabilidad, en ciertos portales llevan años con una oled encendida, hay videos en youtube y con esos años sin apagarla ha perdido un 4-5% de luminancia máxima en el color azul, una chorrada, porque el uso medio que le vas a dar no va a llegar a X horas al día, no 24h.

No compraría nada anterior a 2018, esa es mi conclusión respecto del OLED. Cualquier modelo 19-20-21 es una compra acertada.

Fin del offtopic, no me baneen por favor.
Acabo de empezarlo, pero graficamente me esta llamando la atención el dlc del gears 5, ya el juego base tenia un buen nivel, lo estoy rejugando para unos logros y al empezar el dlc me ha pegado al ojo, me parece de mas calidad.
Nuhar escribió:Acabo de empezarlo, pero graficamente me esta llamando la atención el dlc del gears 5, ya el juego base tenia un buen nivel, lo estoy rejugando para unos logros y al empezar el dlc me ha pegado al ojo, me parece de mas calidad.

Es algo que se está comentando en el foro correspondiente.

Y tal como lo cuentan, también me voy a tener que poner a jugarlo, porque dicen que gráficamente es aun mejor que el Gears 5 mejorado.
Yo solo quiero aportar que estuve en la misma situacion Oled vs .... en mi caso Uled que es la version Qled de Hisense y la verdad es que con 1000 nits el HDR cobra protagonismo, sin duda el contraste de oled da la sensacion de mayor brillo pero con 1000 nits las cosas que deben brillar lo hacen, tambien lo acompaña panel full array con 180 zonas de local dimming, se logra un efecto bastante decente de contraste entre zonas encendidas y apagadas.

Mi opinion es que no existe una tecnologia definitiva y va mas de gustos o necesidades, si aprecias el contraste perfecto ve por una oled pero si quieres un efecto rompedor de hdr ver por una qled yo les recomendaria ampliamente la Hisense H9G que compre que aparte es compatible con 120hz pero creo no se consigue en España, la unica pega entre comillas es que no tiene hdmi 2.1 pero por el precio y todas sus demas caracteristicas me convencio.

Este hilo no es de tvs pero la verdad es que poco hay para hablar de las nuevas consolas que valga la pena hacerlo. [+risas]
En Neogaf hay un debate muy interesante sobre qué consola finalmente puede ser considerada como superior en potencia real (no en números) y sobre la optimización de cada una de ellas.

Me gusta mucho el siguiente mensaje de un usuario que indica algunas cosas interesantes que fundamentan la teoría de mayor optimización de recursos de la consola diseñada por Mark Cerny:

El front-end de la GPU de XSX es inferior (carece del motor de geometría a medida de la PS5) y más lento (frecuencia de reloj más baja) que la GPU de la PS5.

El back-end de la GPU XSX, específicamente los ROPS son iguales en número pero corren más lento que la GPU de la PS5. Así que cosas como la mezcla final de píxeles (relevante para los efectos de transparencia alfa) se ejecutarán más rápido en la PS5. Puedes ver los resultados de esto con ejemplos en la mayoría de los juegos hasta ahora funcionando mejor en PS5 cuando hay escenas con muchos efectos alfa.

XSX tiene peor rendimiento de caché, es decir, un ancho de banda de caché de GPU más lento y carece de los depuradores de caché de PS5 que hacen un uso más eficiente del ancho de banda disponible. También se alega que la PS5 tiene (y esto es importante) un caché de CPU L3 unificado (como si de un sistema RDNA 3) que aumentará significativamente el rendimiento en los casos en que haya comunicación cruzada entre los complejos de núcleo de la CPU.

XSX tiene un array de gráficos y computación más amplio, por lo que las cargas de trabajo de computación pura de la GPU y sombreado de píxeles se ejecutarán hasta un 18% más rápido en el XSX. Pero esa diferencia es teórica. En la práctica, la ventaja del XSX sólo puede manifestarse en un conjunto reducido de casos en los que el rendimiento de la caché de la GPU no es limitante y el conjunto de datos de trabajo inmediato de la GPU es menor que el límite de 10 GB del rápido conjunto de la memoria principal.


Después el tema del mayor número de Unidades de Computación de XSX sobre PS5...

PS5 TFLOPS: 36 CUs x 64 shaders per CU x 2.23 GHz x 2 instructions per clock = 10,275 gigaflops, or 10.28 teraflops (when rounded).

XSX TFLOPS: 52 CUs x 64 shaders per CU x 1.825 GHz x 2 instructions per clock = 12,147 gigaflops, or 12.1 teraflops (when rounded).

Aquí hay un problema de rendimiento claro en XSX. Os voy a poner una analogía muy clara.

Imaginad que hay dos bodas, de 200 invitados. La primera tiene 12 camareros (Tflops) y la segunda 10 camareros (Tflops)... sin leer la letra pequeña, sin dudarlo un momento parecerá que la boda más eficiente y en la que los comensales estarán mejor atendidos será la de 12 camareros.

Pero que pasa, que para ahorrar, en la boda de 12 camareros hay serpentines de cerveza más lentos y menos cocineros, así como puertas para entrar y salir de la cocina más estrechas con lo que nunca, y digo nunca (a menos que se gestione el movimiento de cada camarero al milímetro y se planifique hasta el mínimo detalle) van a estar los 12 camareros trabajando al mismo tiempo y siempre habrá alguno que se quede sin cerveza para llevar porque aún no esté preparada o la comida sin transportar porque aún no esté cocinada.
A mi también me gusta mucho ese mensaje porque dice justo lo que quiero oir
Vdevendettas escribió:En Neogaf hay un debate muy interesante sobre qué consola finalmente puede ser considerada como superior en potencia real (no en números) y sobre la optimización de cada una de ellas.

Me gusta mucho el siguiente mensaje de un usuario que indica algunas cosas interesantes que fundamentan la teoría de mayor optimización de recursos de la consola diseñada por Mark Cerny:

El front-end de la GPU de XSX es inferior (carece del motor de geometría a medida de la PS5) y más lento (frecuencia de reloj más baja) que la GPU de la PS5.

El back-end de la GPU XSX, específicamente los ROPS son iguales en número pero corren más lento que la GPU de la PS5. Así que cosas como la mezcla final de píxeles (relevante para los efectos de transparencia alfa) se ejecutarán más rápido en la PS5. Puedes ver los resultados de esto con ejemplos en la mayoría de los juegos hasta ahora funcionando mejor en PS5 cuando hay escenas con muchos efectos alfa.

XSX tiene peor rendimiento de caché, es decir, un ancho de banda de caché de GPU más lento y carece de los depuradores de caché de PS5 que hacen un uso más eficiente del ancho de banda disponible. También se alega que la PS5 tiene (y esto es importante) un caché de CPU L3 unificado (como si de un sistema RDNA 3) que aumentará significativamente el rendimiento en los casos en que haya comunicación cruzada entre los complejos de núcleo de la CPU.

XSX tiene un array de gráficos y computación más amplio, por lo que las cargas de trabajo de computación pura de la GPU y sombreado de píxeles se ejecutarán hasta un 18% más rápido en el XSX. Pero esa diferencia es teórica. En la práctica, la ventaja del XSX sólo puede manifestarse en un conjunto reducido de casos en los que el rendimiento de la caché de la GPU no es limitante y el conjunto de datos de trabajo inmediato de la GPU es menor que el límite de 10 GB del rápido conjunto de la memoria principal.


Después el tema del mayor número de Unidades de Computación de XSX sobre PS5...

PS5 TFLOPS: 36 CUs x 64 shaders per CU x 2.23 GHz x 2 instructions per clock = 10,275 gigaflops, or 10.28 teraflops (when rounded).

XSX TFLOPS: 52 CUs x 64 shaders per CU x 1.825 GHz x 2 instructions per clock = 12,147 gigaflops, or 12.1 teraflops (when rounded).

Aquí hay un problema de rendimiento claro en XSX. Os voy a poner una analogía muy clara.

Imaginad que hay dos bodas, de 200 invitados. La primera tiene 12 camareros (Tflops) y la segunda 10 camareros (Tflops)... sin leer la letra pequeña, sin dudarlo un momento parecerá que la boda más eficiente y en la que los comensales estarán mejor atendidos será la de 12 camareros.

Pero que pasa, que para ahorrar, en la boda de 12 camareros hay serpentines de cerveza más lentos y menos cocineros, así como puertas para entrar y salir de la cocina más estrechas con lo que nunca, y digo nunca (a menos que se gestione el movimiento de cada camarero al milímetro y se planifique hasta el mínimo detalle) van a estar los 12 camareros trabajando al mismo tiempo y siempre habrá alguno que se quede sin cerveza para llevar porque aún no esté preparada o la comida sin transportar porque aún no esté cocinada.


No, no es que sea interesante.

Es que dice lo que quieres oir.

Ese debate "wide gpu" vs "narrow gpu" lleva dando vueltas por internet desde hace meses. Con argumentos de un lado y de otro, lo único que has hecho es coger los argumentos que coindicen con tu lo que tu quieres oir.
A mi esto ultimo se me parece mucho a aquel hilo de hablemos del interior de...
-El cumple de pedro es mejor que el de pepe porque el tiene la tarta que me gusta
--pero tio si pedro y pepe lo celebran juntos.
-Que te calles el de pedro es mejor.
Oh shit here we go again
En el momento en que las máquinas ofrecen una potencia similar (hubo un momento que se dudo de PS5) me importa cero que una sea un 5% mejor que la otra.

En 3 años tenemos revisiones y vuelta a empezar sin haber aclarado cual de ellas era "mejor":

Disfrutad de los juegos mientras se pueda, que para eso están.
Me he pillado el Sackboy y es una delicia de plataformas. El juego no esconde que se basa por completo en Super Mario 3D World y eso hace que sea maravilloso.
Vdevendettas escribió:En Neogaf hay un debate muy interesante sobre qué consola finalmente puede ser considerada como superior en potencia real (no en números) y sobre la optimización de cada una de ellas.

Me gusta mucho el siguiente mensaje de un usuario que indica algunas cosas interesantes que fundamentan la teoría de mayor optimización de recursos de la consola diseñada por Mark Cerny:

El front-end de la GPU de XSX es inferior (carece del motor de geometría a medida de la PS5) y más lento (frecuencia de reloj más baja) que la GPU de la PS5.

El back-end de la GPU XSX, específicamente los ROPS son iguales en número pero corren más lento que la GPU de la PS5. Así que cosas como la mezcla final de píxeles (relevante para los efectos de transparencia alfa) se ejecutarán más rápido en la PS5. Puedes ver los resultados de esto con ejemplos en la mayoría de los juegos hasta ahora funcionando mejor en PS5 cuando hay escenas con muchos efectos alfa.

XSX tiene peor rendimiento de caché, es decir, un ancho de banda de caché de GPU más lento y carece de los depuradores de caché de PS5 que hacen un uso más eficiente del ancho de banda disponible. También se alega que la PS5 tiene (y esto es importante) un caché de CPU L3 unificado (como si de un sistema RDNA 3) que aumentará significativamente el rendimiento en los casos en que haya comunicación cruzada entre los complejos de núcleo de la CPU.

XSX tiene un array de gráficos y computación más amplio, por lo que las cargas de trabajo de computación pura de la GPU y sombreado de píxeles se ejecutarán hasta un 18% más rápido en el XSX. Pero esa diferencia es teórica. En la práctica, la ventaja del XSX sólo puede manifestarse en un conjunto reducido de casos en los que el rendimiento de la caché de la GPU no es limitante y el conjunto de datos de trabajo inmediato de la GPU es menor que el límite de 10 GB del rápido conjunto de la memoria principal.


Después el tema del mayor número de Unidades de Computación de XSX sobre PS5...

PS5 TFLOPS: 36 CUs x 64 shaders per CU x 2.23 GHz x 2 instructions per clock = 10,275 gigaflops, or 10.28 teraflops (when rounded).

XSX TFLOPS: 52 CUs x 64 shaders per CU x 1.825 GHz x 2 instructions per clock = 12,147 gigaflops, or 12.1 teraflops (when rounded).

Aquí hay un problema de rendimiento claro en XSX. Os voy a poner una analogía muy clara.

Imaginad que hay dos bodas, de 200 invitados. La primera tiene 12 camareros (Tflops) y la segunda 10 camareros (Tflops)... sin leer la letra pequeña, sin dudarlo un momento parecerá que la boda más eficiente y en la que los comensales estarán mejor atendidos será la de 12 camareros.

Pero que pasa, que para ahorrar, en la boda de 12 camareros hay serpentines de cerveza más lentos y menos cocineros, así como puertas para entrar y salir de la cocina más estrechas con lo que nunca, y digo nunca (a menos que se gestione el movimiento de cada camarero al milímetro y se planifique hasta el mínimo detalle) van a estar los 12 camareros trabajando al mismo tiempo y siempre habrá alguno que se quede sin cerveza para llevar porque aún no esté preparada o la comida sin transportar porque aún no esté cocinada.


Estas teorias resultan aun menos sustentables que los datos teoricos en papel [+risas]
LostsoulDark escribió:
Vdevendettas escribió:En Neogaf hay un debate muy interesante sobre qué consola finalmente puede ser considerada como superior en potencia real (no en números) y sobre la optimización de cada una de ellas.

Me gusta mucho el siguiente mensaje de un usuario que indica algunas cosas interesantes que fundamentan la teoría de mayor optimización de recursos de la consola diseñada por Mark Cerny:

El front-end de la GPU de XSX es inferior (carece del motor de geometría a medida de la PS5) y más lento (frecuencia de reloj más baja) que la GPU de la PS5.

El back-end de la GPU XSX, específicamente los ROPS son iguales en número pero corren más lento que la GPU de la PS5. Así que cosas como la mezcla final de píxeles (relevante para los efectos de transparencia alfa) se ejecutarán más rápido en la PS5. Puedes ver los resultados de esto con ejemplos en la mayoría de los juegos hasta ahora funcionando mejor en PS5 cuando hay escenas con muchos efectos alfa.

XSX tiene peor rendimiento de caché, es decir, un ancho de banda de caché de GPU más lento y carece de los depuradores de caché de PS5 que hacen un uso más eficiente del ancho de banda disponible. También se alega que la PS5 tiene (y esto es importante) un caché de CPU L3 unificado (como si de un sistema RDNA 3) que aumentará significativamente el rendimiento en los casos en que haya comunicación cruzada entre los complejos de núcleo de la CPU.

XSX tiene un array de gráficos y computación más amplio, por lo que las cargas de trabajo de computación pura de la GPU y sombreado de píxeles se ejecutarán hasta un 18% más rápido en el XSX. Pero esa diferencia es teórica. En la práctica, la ventaja del XSX sólo puede manifestarse en un conjunto reducido de casos en los que el rendimiento de la caché de la GPU no es limitante y el conjunto de datos de trabajo inmediato de la GPU es menor que el límite de 10 GB del rápido conjunto de la memoria principal.


Después el tema del mayor número de Unidades de Computación de XSX sobre PS5...

PS5 TFLOPS: 36 CUs x 64 shaders per CU x 2.23 GHz x 2 instructions per clock = 10,275 gigaflops, or 10.28 teraflops (when rounded).

XSX TFLOPS: 52 CUs x 64 shaders per CU x 1.825 GHz x 2 instructions per clock = 12,147 gigaflops, or 12.1 teraflops (when rounded).

Aquí hay un problema de rendimiento claro en XSX. Os voy a poner una analogía muy clara.

Imaginad que hay dos bodas, de 200 invitados. La primera tiene 12 camareros (Tflops) y la segunda 10 camareros (Tflops)... sin leer la letra pequeña, sin dudarlo un momento parecerá que la boda más eficiente y en la que los comensales estarán mejor atendidos será la de 12 camareros.

Pero que pasa, que para ahorrar, en la boda de 12 camareros hay serpentines de cerveza más lentos y menos cocineros, así como puertas para entrar y salir de la cocina más estrechas con lo que nunca, y digo nunca (a menos que se gestione el movimiento de cada camarero al milímetro y se planifique hasta el mínimo detalle) van a estar los 12 camareros trabajando al mismo tiempo y siempre habrá alguno que se quede sin cerveza para llevar porque aún no esté preparada o la comida sin transportar porque aún no esté cocinada.


Estas teorias resultan aun menos sustentables que los datos teoricos en papel [+risas]

Sorry, me equivoqué de hilo
Vdevendettas escribió:En Neogaf hay un debate muy interesante sobre qué consola finalmente puede ser considerada como superior en potencia real (no en números) y sobre la optimización de cada una de ellas.

Me gusta mucho el siguiente mensaje de un usuario que indica algunas cosas interesantes que fundamentan la teoría de mayor optimización de recursos de la consola diseñada por Mark Cerny:

El front-end de la GPU de XSX es inferior (carece del motor de geometría a medida de la PS5) y más lento (frecuencia de reloj más baja) que la GPU de la PS5.

El back-end de la GPU XSX, específicamente los ROPS son iguales en número pero corren más lento que la GPU de la PS5. Así que cosas como la mezcla final de píxeles (relevante para los efectos de transparencia alfa) se ejecutarán más rápido en la PS5. Puedes ver los resultados de esto con ejemplos en la mayoría de los juegos hasta ahora funcionando mejor en PS5 cuando hay escenas con muchos efectos alfa.

XSX tiene peor rendimiento de caché, es decir, un ancho de banda de caché de GPU más lento y carece de los depuradores de caché de PS5 que hacen un uso más eficiente del ancho de banda disponible. También se alega que la PS5 tiene (y esto es importante) un caché de CPU L3 unificado (como si de un sistema RDNA 3) que aumentará significativamente el rendimiento en los casos en que haya comunicación cruzada entre los complejos de núcleo de la CPU.

XSX tiene un array de gráficos y computación más amplio, por lo que las cargas de trabajo de computación pura de la GPU y sombreado de píxeles se ejecutarán hasta un 18% más rápido en el XSX. Pero esa diferencia es teórica. En la práctica, la ventaja del XSX sólo puede manifestarse en un conjunto reducido de casos en los que el rendimiento de la caché de la GPU no es limitante y el conjunto de datos de trabajo inmediato de la GPU es menor que el límite de 10 GB del rápido conjunto de la memoria principal.


Después el tema del mayor número de Unidades de Computación de XSX sobre PS5...

PS5 TFLOPS: 36 CUs x 64 shaders per CU x 2.23 GHz x 2 instructions per clock = 10,275 gigaflops, or 10.28 teraflops (when rounded).

XSX TFLOPS: 52 CUs x 64 shaders per CU x 1.825 GHz x 2 instructions per clock = 12,147 gigaflops, or 12.1 teraflops (when rounded).

Aquí hay un problema de rendimiento claro en XSX. Os voy a poner una analogía muy clara.

Imaginad que hay dos bodas, de 200 invitados. La primera tiene 12 camareros (Tflops) y la segunda 10 camareros (Tflops)... sin leer la letra pequeña, sin dudarlo un momento parecerá que la boda más eficiente y en la que los comensales estarán mejor atendidos será la de 12 camareros.

Pero que pasa, que para ahorrar, en la boda de 12 camareros hay serpentines de cerveza más lentos y menos cocineros, así como puertas para entrar y salir de la cocina más estrechas con lo que nunca, y digo nunca (a menos que se gestione el movimiento de cada camarero al milímetro y se planifique hasta el mínimo detalle) van a estar los 12 camareros trabajando al mismo tiempo y siempre habrá alguno que se quede sin cerveza para llevar porque aún no esté preparada o la comida sin transportar porque aún no esté cocinada.


Tela.

Sony ha sacado siempre consolones con éxito, y todo apunta a que lo están haciendo otra vez.
De modo que no necesita cibervoluntarios de ningún tipo que vengan a comerle el culo.

Un saludo,
Es la famosa arquitectura del camarero indolente.
Cuánto talento desperdiciado para hablar de desalojos granulares de caché como si fuera la gran innovación mesiánica, cuando en APUs se viene usando desde 2015.
pabloc escribió:A mi esto ultimo se me parece mucho a aquel hilo de hablemos del interior de...

Así mismo es [qmparto] no sabes las de risas que tuve leyendo ese hilo con las pajas que se hacían y ahora en esta generación me estoy riendo haciéndose pajas buscando el poder oculto del SSD y el IO y el infinity cache [qmparto]
Unerico está baneado por "troll"
SnakeElegido escribió:Tela.

Sony ha sacado siempre consolones con éxito, y todo apunta a que lo están haciendo otra vez.
De modo que no necesita cibervoluntarios de ningún tipo que vengan a comerle el culo.

Un saludo,


Lo mismo se puede decir de Microsoft o de Nintendo. Pero siempre es divertido ver los ejemplos que buscan equiparar un hardware a una boda con camareros donde algunos de esos camareros son mancos y se tropiezan mas que mister bean en uno de sus cortos, o ejemplos que hacen la comparacion del hardware con una orquesta pero alguien descubre que tres de los violinistas son los tres chiflados, etc...
mocolostrocolos escribió:Me he pillado el Sackboy y es una delicia de plataformas. El juego no esconde que se basa por completo en Super Mario 3D World y eso hace que sea maravilloso.


Ya iba siendo hora de que hiciesen un plataformas con esa franquicia y no los juegos que habían hecho hasta ahora.
Yo el ultimo sackboy lo jugue en... la vita??? Fue en una portatil de sony y me encanto.

Cuando me haga con una ps5 ( cuando esto del stock se calme) pillare el spiderman y el sackboy .
31430 respuestas