VESA trabaja en la próxima versión de DisplayPort pensando más allá de los 8K

La Video Electronics Standards Association (VESA) lleva unas semanas sorprendentemente activa si se considera la frecuencia con la que es objeto de noticias. Si hace poco esta asociación encargada de impulsar tecnologías de vídeo comunes para toda la industria desvelada el nuevo estándar DisplayHDR para monitores, ahora comunica que ya está trabajando en una futura revisión de la tecnología DisplayPort pensando ya en el futuro pos-8K.

La noticia, que llega poco después de que el HDMI Forum publicara la especificación 2.1 de su propio sistema de conexión, no estaría completa sin señalar que la próxima gran revisión del estándar DisplayPort duplicará (y más) las actuales tasas de transferencia de datos para satisfacer los requisitos de futuros monitores profesionales y sistemas de realidad virtual de próxima generación con pantallas 4K o superiores.

La próxima especificación del estándar DisplayPort, además, será opcionalmente compatible con conectores USB-C de alta velocidad. Se entiende que la revisión de DisplayPort sacará partido a la nueva especificación USB 3.2, que con una velocidad de 20 Gbps duplica la velocidad del estándar USB 3.1 Gen 2.

El propósito de VESA es publicar la actualización dentro de los próximos 18 meses.

Llegan los primeros cables DisplayPort 8K con conector USB-C

Asimismo, durante este CES varios fabricantes mostrarán los primeros cables con certificación DP8K. Dichos cables utilizarán el diseño base de DisplayPort para proporcionar señal de vídeo a monitores 4K, 5K y 8K, pero también habrá modelos con conectores USB-C pensados para ordenadores portátiles.

En el caso de las versiones USB-C, los cables deberán seguir la especificación SuperSpeed USB 10 Gbps, que son compatibles con las tasas de datos de HBR3 para DisplayPort Alt Mode. DisplayPort puede transmitir vídeo vía USB-C a 4K y 60 Hz sin compresión o 4K HDR/8K a 30 Hz con compresión.

Imagen

El anuncio de VESA deja en una situación algo incómoda a la tecnología Thunderbolt 3 de Intel, que hace poco abandonó su modelo de licencias de pago para estimular su adopción. Se da la circunstancia de que Thunderbolt 3 integra conectores USB-C, aunque brinda una mayor velocidad que el todavía vigente DisplayPort 1.4 al utilizar cables especiales de 40 Gbps.

Thunderbolt 3, en cualquier caso, también es compatible con DisplayPort, y de hecho Intel acaba de anunciar que su nuevo controlador Titan Ridge ofrecerá soporte para DisplayPort 1.4.

Fuente: Overclock 3D
Lo único que les pido es que lo hagan simple que hace poco compré un monitor 4K y menudo jaleo para conectar todo.
Sí el estándar está aún en 720p/1080p y van ya por el 8k, es una locura sí ni quiera el 4k está del todo bien cogido por los consumidores.

Es bueno que la industria valla a pasos gigantescos pero ya las compañías de están aprovechando y abusando de los consumidores.

Hay personas que aún siguen con televisores de 720p y y la gran mayoría tiene en sus casas las de 1080p y solo un 20% de toda la población del mundo tiene las de 4k .


Se debería ya de normalizar los estandartes de 4k vs 8k y dejen la producción del 8k ya que el 4k aun sigue siendo un timo con el HDR plus/+/10.
Aún no e visto ni un juego ni películas que sea 4k reales, solo renderizados a 4k que es una burla aún.
Super Link escribió:Sí el estándar está aún en 720p/1080p y van ya por el 8k, es una locura sí ni quiera el 4k está del todo bien cogido por los consumidores.

Es bueno que la industria valla a pasos gigantescos pero ya las compañías de están aprovechando y abusando de los consumidores.

Hay personas que aún siguen con televisores de 720p y y la gran mayoría tiene en sus casas las de 1080p y solo un 20% de toda la población del mundo tiene las de 4k .


Se debería ya de normalizar los estandartes de 4k vs 8k y dejen la producción del 8k ya que el 4k aun sigue siendo un timo con el HDR plus/+/10.
Aún no e visto ni un juego ni películas que sea 4k reales, solo renderizados a 4k que es una burla aún.



Tienes juegos y peliculas en 4k reales a patadas, pero vale.
Displayport es un estándar informático.
HDMI es un estándar audiovisual.
Es normal que se busque evolucionar en ambos mercados y asentar las bases de un nuevo conector.
De todas formas me da a mí que al VGA no lo matamos ni a patadas.
Jhonny escribió:Displayport es un estándar informático.
HDMI es un estándar audiovisual.
Es normal que se busque evolucionar en ambos mercados y asentar las bases de un nuevo conector.
De todas formas me da a mí que al VGA no lo matamos ni a patadas.

El VGA/D-sub no morirá mientras quede una empresa rancia sin actualizar sus proyectores de oficina.
Alejo I escribió:
Jhonny escribió:Displayport es un estándar informático.
HDMI es un estándar audiovisual.
Es normal que se busque evolucionar en ambos mercados y asentar las bases de un nuevo conector.
De todas formas me da a mí que al VGA no lo matamos ni a patadas.

El VGA/D-sub no morirá mientras quede una empresa rancia sin actualizar sus proyectores de oficina.


Si solo fueran los proyectores...

En cierta empresa multinacional de la que habéis hablado hoy mismo en portada hay varios centros de trabajo en los que la mitad de la plantilla está programando en portátiles con 4 GB de RAM que no pueden ni con su vida conectados a monitores chusteros por VGA.

[looco]
Madre mía y yo tan contento con mi HDMI a 1080p jaja
Meras estrategias comerciales para crearte la necesidad de algo que realmente no necesitas. Una forma mas de "obsolescencia programada"

Todo esto de las 4k, 8k, o 36000k no es mas que eso.

Un (buen) monitor FullHD y tendrás suficiente calidad para disfrutar de cualquier peli o juego (he dicho "buen" monitor, que hay algunos...)

Pero claro, mejor "vendernos" que necesitamos un 8k, porque claro, si jugamos (por poner un ejemplo) a un futuro Fifa en 8k lo disfrutaremos mas, porque claro, si le damos a la pausa y pegamos los ojos a la pantalla, con tanta resolución les podremos ver hasta los pelos de los sobacos a los jugadores... Oh, que bien, cuanto vamos a disfrutar tras gastarnos un paston en una tarjeta + monitor 8k!!!!!!
jberto escribió:Meras estrategias comerciales para crearte la necesidad de algo que realmente no necesitas. Una forma mas de "obsolescencia programada"

Todo esto de las 4k, 8k, o 36000k no es mas que eso.

Un (buen) monitor FullHD y tendrás suficiente calidad para disfrutar de cualquier peli o juego (he dicho "buen" monitor, que hay algunos...)

Pero claro, mejor "vendernos" que necesitamos un 8k, porque claro, si jugamos (por poner un ejemplo) a un futuro Fifa en 8k lo disfrutaremos mas, porque claro, si le damos a la pausa y pegamos los ojos a la pantalla, con tanta resolución les podremos ver hasta los pelos de los sobacos a los jugadores... Oh, que bien, cuanto vamos a disfrutar tras gastarnos un paston en una tarjeta + monitor 8k!!!!!!


Lo mismo decian algunos del 720p y los 30fps
Luego prueban 1440p a 144hz y flipan en colores.
Cuando tengamos la potencia de calculo suficiente para mover 4K a 240hz, pues nos partiremos el culo del 1080p a 60
Igual que me parto el culo hoy dia de los 360p a 15fps a los que teniamos que jugar antaño en monitores de 14" maximo, ilustro:

Imagen
Alejo I escribió:
Jhonny escribió:Displayport es un estándar informático.
HDMI es un estándar audiovisual.
Es normal que se busque evolucionar en ambos mercados y asentar las bases de un nuevo conector.
De todas formas me da a mí que al VGA no lo matamos ni a patadas.

El VGA/D-sub no morirá mientras quede una empresa rancia sin actualizar sus proyectores de oficina.

Y el día que lo hagan pondrán uno 4:3
@jberto La diferencia es bastante bárbara, sobre todo a ciertas resoluciones.

Yo con 23 pulgadas y Full HD estoy encantadísimo. Mi monitor tiene ya unos años pero era de cierta calidad cuando lo compré y es bastante mejor que algún que otro modelo gaming de gama baja actual. Pero ahora ves otro de su mismo nivel pero en QHD o algo un poco más grande en 4K y te quedas con el culo torcido. Piensa además que en esos monitores de mayor resolución empieza a aparecer también el HDR, que se nota bastante.

Personalmente el 4K me sobra, porque se aprecia mejor a tamaños más grandes de lo que me resulta cómodo para un monitor, pero si pudiera echar el guante a algo de entre 23 y 25 pulgadas a 120 Hz o más y con HDR... no me lo pensaba.

@Jhonny me río por no llorar [carcajad]
Riwer escribió:
Super Link escribió:Sí el estándar está aún en 720p/1080p y van ya por el 8k, es una locura sí ni quiera el 4k está del todo bien cogido por los consumidores.

Es bueno que la industria valla a pasos gigantescos pero ya las compañías de están aprovechando y abusando de los consumidores.

Hay personas que aún siguen con televisores de 720p y y la gran mayoría tiene en sus casas las de 1080p y solo un 20% de toda la población del mundo tiene las de 4k .


Se debería ya de normalizar los estandartes de 4k vs 8k y dejen la producción del 8k ya que el 4k aun sigue siendo un timo con el HDR plus/+/10.
Aún no e visto ni un juego ni películas que sea 4k reales, solo renderizados a 4k que es una burla aún.



Tienes juegos y peliculas en 4k reales a patadas, pero vale.


Los juegos a 4k no son reales y/o usan assets de menor resolución, que si, el puro antialiasing y el filtro anisotropico ayudan mucho, pero para mover lo shaders en forma a 4k va a ser que no hay hardware.

En películas a menos que te guste sentarte pegado a la pantalla la diferencia no es tan notoria ( lo mismo que 720 a 1080, pero no me meteré en esa discusión).

Lo que si es cierto, es que fuera de una instalación insitu, no tenemos verdadera capacidad de transmisión, las señales de tv son 720p o 1080i, vía internet podemos llegar a los 1080p, y si nos dejamos una buena suma en el servicio a 4k, pero con compresion. Que si, que no son tan notorios los artefactos, pero están ahí. Y lo peor es que para que sean apreciables los 8k se necesita una pantalla enorme que aunque bajen de precio y sean asequibles, ¿que persona en su sano juicio usaría una pantalla de 80" para trabajar o si es para entretenimiento, la pondría en su casa de asalariado?

La carrera tecnológica esta muy arrítmica entre capacidades de puertos, procesadores, capacidades de paneles, etc... Tendríamos una industria mejor si por un tiempo nos hubiéramos quedado en 720 para tener paneles con hdr, negros verdaderos como OLED pero con mas brillo, y ahora estuviéramos evolucionando a 1080, en vez de tener mas o menos estandarizados contenidos en 1080, mientras se promueve el 4k y se introduce el 8k, todo esto con paneles LCD con iluminación lejos de ser ideal, y mala capacidad de transmisión.
ZedHqX4 escribió:
Riwer escribió:
Super Link escribió:Sí el estándar está aún en 720p/1080p y van ya por el 8k, es una locura sí ni quiera el 4k está del todo bien cogido por los consumidores.

Es bueno que la industria valla a pasos gigantescos pero ya las compañías de están aprovechando y abusando de los consumidores.

Hay personas que aún siguen con televisores de 720p y y la gran mayoría tiene en sus casas las de 1080p y solo un 20% de toda la población del mundo tiene las de 4k .


Se debería ya de normalizar los estandartes de 4k vs 8k y dejen la producción del 8k ya que el 4k aun sigue siendo un timo con el HDR plus/+/10.
Aún no e visto ni un juego ni películas que sea 4k reales, solo renderizados a 4k que es una burla aún.



Tienes juegos y peliculas en 4k reales a patadas, pero vale.


Los juegos a 4k no son reales y/o usan assets de menor resolución, que si, el puro antialiasing y el filtro anisotropico ayudan mucho, pero para mover lo shaders en forma a 4k va a ser que no hay hardware.

En películas a menos que te guste sentarte pegado a la pantalla la diferencia no es tan notoria ( lo mismo que 720 a 1080, pero no me meteré en esa discusión).

Lo que si es cierto, es que fuera de una instalación insitu, no tenemos verdadera capacidad de transmisión, las señales de tv son 720p o 1080i, vía internet podemos llegar a los 1080p, y si nos dejamos una buena suma en el servicio a 4k, pero con compresion. Que si, que no son tan notorios los artefactos, pero están ahí. Y lo peor es que para que sean apreciables los 8k se necesita una pantalla enorme que aunque bajen de precio y sean asequibles, ¿que persona en su sano juicio usaría una pantalla de 80" para trabajar o si es para entretenimiento, la pondría en su casa de asalariado?

La carrera tecnológica esta muy arrítmica entre capacidades de puertos, procesadores, capacidades de paneles, etc... Tendríamos una industria mejor si por un tiempo nos hubiéramos quedado en 720 para tener paneles con hdr, negros verdaderos como OLED pero con mas brillo, y ahora estuviéramos evolucionando a 1080, en vez de tener mas o menos estandarizados contenidos en 1080, mientras se promueve el 4k y se introduce el 8k, todo esto con paneles LCD con iluminación lejos de ser ideal, y mala capacidad de transmisión.

conclusion y sospecha de que necesitan vender porque se han quedado sin novedades exitozas
Aún no esta el 4K expandido y ya piensan en el 8K ¬_¬
¿Están empezando a salir las TVs a 4K de ese y ya nos están intentan vender las TVs que sacarán con más de 8K...? :-| :o

Lo que no entiendo es para que van a pasar de los 8K, las cámaras de cine por lo general no graban a resoluciones mayores.
Bueno si lo entiendo, para vender más, para que tires tu "viejo TV" que tiene ya la friolera de 2 ó 3 primaveras y te compres uno nuevo con SuperMegaFullHD 16K +HDRi x (sin 12/cos 1/4)^4 , por lo menos, o incluso más. [+risas] [facepalm]

Lo peor es que la gente se lo comprará sin dudarlo mucho.

Y por supuesto que no quepa duda que mejor para aprovechar toda esa resolución que una TV pequeña, o incluso un móvil de 6" o menos. Sublime. [sati]
ZedHqX4 escribió:
Riwer escribió:
Super Link escribió:Sí el estándar está aún en 720p/1080p y van ya por el 8k, es una locura sí ni quiera el 4k está del todo bien cogido por los consumidores.

Es bueno que la industria valla a pasos gigantescos pero ya las compañías de están aprovechando y abusando de los consumidores.

Hay personas que aún siguen con televisores de 720p y y la gran mayoría tiene en sus casas las de 1080p y solo un 20% de toda la población del mundo tiene las de 4k .


Se debería ya de normalizar los estandartes de 4k vs 8k y dejen la producción del 8k ya que el 4k aun sigue siendo un timo con el HDR plus/+/10.
Aún no e visto ni un juego ni películas que sea 4k reales, solo renderizados a 4k que es una burla aún.



Tienes juegos y peliculas en 4k reales a patadas, pero vale.


Los juegos a 4k no son reales y/o usan assets de menor resolución, que si, el puro antialiasing y el filtro anisotropico ayudan mucho, pero para mover lo shaders en forma a 4k va a ser que no hay hardware.

En películas a menos que te guste sentarte pegado a la pantalla la diferencia no es tan notoria ( lo mismo que 720 a 1080, pero no me meteré en esa discusión).

Lo que si es cierto, es que fuera de una instalación insitu, no tenemos verdadera capacidad de transmisión, las señales de tv son 720p o 1080i, vía internet podemos llegar a los 1080p, y si nos dejamos una buena suma en el servicio a 4k, pero con compresion. Que si, que no son tan notorios los artefactos, pero están ahí. Y lo peor es que para que sean apreciables los 8k se necesita una pantalla enorme que aunque bajen de precio y sean asequibles, ¿que persona en su sano juicio usaría una pantalla de 80" para trabajar o si es para entretenimiento, la pondría en su casa de asalariado?

La carrera tecnológica esta muy arrítmica entre capacidades de puertos, procesadores, capacidades de paneles, etc... Tendríamos una industria mejor si por un tiempo nos hubiéramos quedado en 720 para tener paneles con hdr, negros verdaderos como OLED pero con mas brillo, y ahora estuviéramos evolucionando a 1080, en vez de tener mas o menos estandarizados contenidos en 1080, mientras se promueve el 4k y se introduce el 8k, todo esto con paneles LCD con iluminación lejos de ser ideal, y mala capacidad de transmisión.


Un juego en 4k real no necesita de assets en 4k (que esos assets se limitan a texturas y poco mas) y basicamente porque nunca jamas la textura se ve extendida a pantalla completa.

De hecho realmente los assets "raw" tienen muchisima mas resolucion de 4k, y lo unico que necesitas son mipmaps y vram.

Pero esque el mismo principio (totalmente cierto de hecho) que aplicas a las televisiones, lo tienes que aplicar aqui.
Tener una textura a 4k para por ejemplo, la textura de cuero de unos pantalones del personaje, es absurdo a no ser que quieras poner su culo en primer plano y pareciarlo en 4k xD. Y ojo, que hardware hay de sobra para poder hacerlo, simplemente ocupara mas en disco el juego y habran saltos de calidad al tratar con el zoom (como pasa por ejemplo en black desert, donde todos los assets en los personajes estan por encima de 4k).

Veo que tienes varios conceptos mal asimilados.

Puedes perfectamente ejecutar 4k sin compresión, sin problema alguno. Precisamente lo que fuerza el hardware (requriiendo tal vez hasta aceleracion de gpu y dandole caña a la cpu) es decodificar mediante el codec que quieras usar, y cuanto más comprimido, mas requisito de hardware, no a la inversa.
Por no decir que en los Blu-Ray 4k se ha remastierizado de la fuente original, que hasta para las peliculas mas antiguas es mas resolucion que el 4k nativo (porque es fuente de fotografia, no digital) y se usa compresion "loseless". que entre 700 y 100MB/s de tasa la diferencia es nula.
Por debajo de 100 ya son las codificaciones normales, y como no bajes de 20 es que ni de coña vas a ver artefactos. Y 20MBs de transferencia es una mierdecilla pirata. (En digital las fuentes de todas las peliculas pasan del 8k).

Y la conexion a traves de internet es otro tema, donde haciendo cache veras o no el contenido en base a su tamaño y su tasa de bits. (Que el streaming en 4k tenga que madurar realmente es un tema aparte).

Tampoco necesitas ninguna pantalla grande para 8k.
El ratio entre tamaño y distancia de visionado siempre va a generar una equivalencia aproximada para tener el tamaño de pixel optimo para superar lo apreciable por el ojo humano. Y eso ya lo pasas con televisiones 4k en un salon.
Supongo que por esto dices de pantallas grandes para 8k, pero ojo, solo para salon porque estas lejos, y al estar lejos el tamaño del pixel es relativamente menor.

Para que entiendas lo que quiero decir, si te acercas "el doble" de distancia a un monitor 8k, necesitas que sea "el doble" de pequeño para hacer una equivalencia de tamaño relativo del pixel apreciable.
Eso quiere decir que para trabajar no estas a 3 metros de la pantalla, por tanto por supuesto que no necesitas que la pantalla sea ni de 80 ni de 40 pulgadas.
De hecho en 32 pulgadas un monitor 4k sigue teniendo unos pixeles por pulgada de pena. (Mientras que una pantalla 1080p en un movil ya tiene unos pixeles por pulgada cojonudos).
Asi que no caigas en el error de hacer asignaciones generales.

Resumen, tenemos fuentes y hardware de sobra para ejecutar contenido 4k nativo a nivel de video. Y en juegos tambien segun la carga grafica que quieras meter.
No tendras problema en reconocer al menos que un juego 2D con assets 8k si quieres puede reproducirse nativamente en la mayoria de sistemas verdad? xD (en 3D es lo mismo hasta que las graficas digan basta por la suma de factores, como siempre vaya).
Tengo curiosidad por saber a que resoluciones llegará la tecnología para cuando mi monitor 720p comprado en 2010 muera y tenga que dar el salto a la fuerza.
No entiendo por qué matar el vga.
A mi me saca 900p y para tareas no gaming como programar está de fábula y hay monitores tirados de precio con ese puerto
anonimo115 escribió:No entiendo por qué matar el vga.
A mi me saca 900p y para tareas no gaming como programar está de fábula y hay monitores tirados de precio con ese puerto


Precisamente para programar, deberias valorar tu salud y pillar un monitor con una buena densidad de pixeles y al menos un refresco de 75Hz.
De lo contrario es joderte la vista a largo plazo.

Pero bueno, eso en un mundo ideal, yo soy el primero que está en la oficina con 2 monitores de mierda xD (Pero por eso mismo, mas motivo para tener algo mejor para ti y no seguir sumando daño)
El problema que tenemos aqui, es que se esta empezando a cometer el mismo error que en la epoca de los puertos RS-232 o COM1/2 ... que todos los PCs tenian por aquella epoca los mismos puertos para diversas cosas ... y esto hacia que cada usuario se volviera loco con determinados accesorios, cableados, conexiones y la madre que lo pario.

Ahora tenemos que con el USB-C puedes cargar aparatos, puedes interconectarlos, puedes poner monitores, puedes meterle discos duros, memorias, puedes colocar graficas, poner hubs y ahora tambien puedes pasarlo a HDMI o a DisplayPort....

Es decir, esta empezando a ser un cachondeo, porque si los equipos fueran sobrados de estos conectores, todavia estaria bien, pero parece ser que ahora mismo si tienen uno da gracias, y si ademas es un MacBook Pro de los nuevos, no lo puedes usar ... porque es el puerto de carga .... es decir, una cagada.

Por consiguiente, no le veo sentido a todo esto, porque la gente puede que conecte (porque le de la gana) cosas que son para CARGAR aparatos a conexiones que NO son para recibir carga ... asi que veremos que pasa ...
Mi preocupación es; que sigue después del 8K, 16K? Y luego??? Fin de la industria? incluso 8k puede ya no sea comercial o de fácil venta (4K apenas y lo es) e ir mas allá será directamente una payasada ante las masas (como cuando la guerra de los megapixeles en las cámaras compactas)

Al igual con los procesadores, que sigue después de alcanzar el celestial " 1 " nanómetro? (si es que la física se los permite) al no haber medida inferior, significa que la única salida sería agrandar los procesadores... hasta al infinito???

A la industria se le acaban las ideas y estamos tocando techo.
Pero si la tele normal no llegqa a eso¡¡¡¡¡ jajaja cuanta cosa por vender.
Realmente es necesario estas actualizaciones? yo estoy usando un VGA de toda la vida y sin problemas le meto 4K/60FPs en los juegos que soportan y mi gráfica aguanta, no veo imágenes pixeladas ni fallos visuales. Igual las pocas veces que he utilizado HDMI lo he hecho con uno 1.3 y tampoco he tenido problemas para el 4K. Entonces yo (no se de estos temas tanto como me gustaría pero...) ¿ Realmente es necesario sacar un cable nuevo cada vez que sacan un nuevo estándar que solo utilizan los que pueden permitirse estas pantallas 4/8K que apenas hay contenido? Para mi el 1080P es más que suficiente, me parece absurdo el 4K a menos que sea de 65 pulgadas o mayor. Que hago diseño 3D y no tengo problemas para trabajar en 720P a 96 ppi, muchos diseñadores me dicen que no saben como puedo trabajar tan malamente y hacer unos trabajos tan detallados. Realmente no es necesario.

fbpr85 escribió:Mi preocupación es; que sigue después del 8K, 16K? Y luego??? Fin de la industria? incluso 8k puede ya no sea comercial o de fácil venta (4K apenas y lo es) e ir mas allá será directamente una payasada ante las masas (como cuando la guerra de los megapixeles en las cámaras compactas)

Al igual con los procesadores, que sigue después de alcanzar el celestial " 1 " nanómetro? (si es que la física se los permite) al no haber medida inferior, significa que la única salida sería agrandar los procesadores... hasta al infinito???

A la industria se le acaban las ideas y estamos tocando techo.


Siempre saldrán cosas mejores aunque no sirva para nada y nuestra vista no de más de si, la idea es venderte la moto. Entre una pantalla 4K y una 8K no veras diferencia. Actualmente han logrado pantallas 16K y ya están trabajando con las 32K.

Caso de los procesadores no pueden reducir más de los 7nm el silicio y no interesa pasar al grafito a parte que es caro. Por ello intentan estirar el silicio todo lo que pueden metiéndonos procesadores con más núcleos de los cuales no se saca partido a nivel usuario (servidores y empresas si sacan partido).

Todo se reduce a Marketing y dinero.
Estoy esperando a que salga el 64K y que se vea en la pantalla de un móvil y alguno diga que si nota la diferencia...

Salu2
Ya me parece una locura... [tomaaa]
Sinceramente, en mi habitación con mi tv de 32 conectada al pc dándome 1080p a 60hrz con 60 frames no necesito mas. Tengo pantalla grande, nitidez y suavidad de gráficos ....vamos, SOBRADAMENTE SOBRADO y no me vengáis con eso de cuando teníamos los monitores crts a 640p y jugábamos a 30 frames o menos, que no es ni remotamente comparable el pasar de jugar mal (lo que pasa es que lo disfrutabas por que todo era novedad y no había otra) a muy bien, que el de jugar muy bien a un pelin mejor ...el que quiera esos lujos de juegos muy por encima de los 60 frames y cuente con habitaciones de 50metros cuadrados en su casa para meter pantallas de 50" o mas 4k 8k o mas que se los pague que ese aro no es para mi, ademas que no siento yo necesidad de tal cosa vaya.... Dinero que me ahorro.
@Super Link No todo es la europa rica y desarrollada (que es en lo que se piensa cuando se habla de europa) y EU, las pantallas 1080p verdaderos no creo que llegue siquiera al 20% mundial, que vamos, mucha gente sigue en CRT aun (o incluso sin electricidad y agua en sus casas [+risas] que claro, ellos no importan para el mercado)

Pero lo que si es que esto va primero para sentar las bases de lo que podríamos usar en 10 o 15 años, y segundo también para ir ganando espacio en el mercado. Y para ejemplos de tecnologías "futuristas" que se han probado y unas si cuajaron y las otras no tienes la TV a color, la TV digital, BD, HD-DVD. MiniDisk, DVI, 3D estereoscópico de los 60s, 3D de gafas con obturador de LCD, etc. Siempre salen estándares nuevos, y siempre hay competencia entre ellos, el que suele ganar es el mas fácil de fabricar y operar y el preferido de la gente, aunque no sea el mejor.

Pero hay un tercer punto, estas tecnologías van enfocadas al alto desempeño, vamos, a los que se paguen un paston en una PC para jugar juegos y poder tener un pixel con tres colores verdaderos (no que compartan un color) para cada una de las células del protagonista del juego, y para cosas como pantallas gigantes, simuladores, etc. Para el resto de los mortales con HDMI -hasta ahora- basta y sobra. Pero también hay que ver estándares locos como el Dolby ATMOS, que bien implementado se han de comer mucho ancho de banda (aunque quien instalaría en su casa un sistema con 20 o mas parlantes que no sea un entusiasta con equipo al menos semiprofesional ¬_¬ )
Super Link escribió:Sí el estándar está aún en 720p/1080p y van ya por el 8k, es una locura sí ni quiera el 4k está del todo bien cogido por los consumidores.

Es bueno que la industria valla a pasos gigantescos pero ya las compañías de están aprovechando y abusando de los consumidores.

Hay personas que aún siguen con televisores de 720p y y la gran mayoría tiene en sus casas las de 1080p y solo un 20% de toda la población del mundo tiene las de 4k .


Se debería ya de normalizar los estandartes de 4k vs 8k y dejen la producción del 8k ya que el 4k aun sigue siendo un timo con el HDR plus/+/10.
Aún no e visto ni un juego ni películas que sea 4k reales, solo renderizados a 4k que es una burla aún.


20% ¿?

dudo que llegue ni al 5%

Alejo I escribió:
Jhonny escribió:Displayport es un estándar informático.
HDMI es un estándar audiovisual.
Es normal que se busque evolucionar en ambos mercados y asentar las bases de un nuevo conector.
De todas formas me da a mí que al VGA no lo matamos ni a patadas.

El VGA/D-sub no morirá mientras quede una empresa rancia sin actualizar sus proyectores de oficina.


¿proyectores? si solo fueran sus proyectores... ¿que tal los monitores de mas del 99% de usuarios de una empresa (rancia) de mas de 30000 trabajadores (sin contar los externos). ?

btw... displayport a dia de hoy es un fracaso. se supone que venia para obsoletizar al DVI y hacer innecesario al HDMI en el entorno domestico y sobre todo de oficina, y despues de casi 10 años no creo que se utilice ni en el 1% de las conexiones. el conector original es super aparatoso, con cables bastante rigidos y dificiles de manipular y no transporta audio.

como bien han dicho varios... mucha gilipollina comercial de querer vender 8K cuando 4K todavia no esta consolidado y el estandar a dia de hoy (FullHD) todavia ni se utiliza en el 100% de entornos y usuarios (ni menos aun de conexiones), ni siquiera muchos dispositivos reproductores o visualizadores lo utilizan con soltura. y de las emisiones mejor ni saco el tema. :-|

Edy escribió:El problema que tenemos aqui, es que se esta empezando a cometer el mismo error que en la epoca de los puertos RS-232 o COM1/2 ... que todos los PCs tenian por aquella epoca los mismos puertos para diversas cosas ... y esto hacia que cada usuario se volviera loco con determinados accesorios, cableados, conexiones y la madre que lo pario.

Ahora tenemos que con el USB-C puedes cargar aparatos, puedes interconectarlos, puedes poner monitores, puedes meterle discos duros, memorias, puedes colocar graficas, poner hubs y ahora tambien puedes pasarlo a HDMI o a DisplayPort....

Es decir, esta empezando a ser un cachondeo, porque si los equipos fueran sobrados de estos conectores, todavia estaria bien, pero parece ser que ahora mismo si tienen uno da gracias, y si ademas es un MacBook Pro de los nuevos, no lo puedes usar ... porque es el puerto de carga .... es decir, una cagada.

Por consiguiente, no le veo sentido a todo esto, porque la gente puede que conecte (porque le de la gana) cosas que son para CARGAR aparatos a conexiones que NO son para recibir carga ... asi que veremos que pasa ...


el resumen de tu discurso es: es que en apple son gilipollas.

precisamente la "gracia" de, por ejemplo, pasar la carga y el video por conectores USB-C analogos a los de datos, es justamente poner varios puertos.

pues no. van los muy gilipollas y ponen UNO. y como quieras cargar y utilizarlo para otra cosa al mismo tiempo, te jodes y bailas. ¬_¬

y en los tablets y moviles lo mismo, pero ahi esta medio justificado porque lo esencial es la portabilidad. asi todo algunos tienen dock para extender puertos por si necesitas conectar un par de cosas y a la vez cargar el dispositivo.

pero en portatiles, no tiene puto sentido, excepto joder al usuario final.
Tal cual lo que tu has dicho ... son gilipollas ... o aun peor, hacen pensar al usuario que la culpa es suya, porque como Apple es la unica empresa informatica del mundo que el cliente se adapta a ellos .. no ellos al cliente.

Pero si, poner un unico conector es para darles de hostias hasta en la foto del carnet...
30 respuestas