¿Por qué las t. gráficas incluyen HDMi si lo mejor es DVI?

Pues ésa es la duda que tengo...leo por aqui que para el ordenador lo mejor es DVI, pero entonces, por qué las tarjetas gráficas sólo incluyen puertos HDMI+VGA? Ya sé que hay conversores HDMI/DVI-D, pero entonces?

Es una dudilla, jeje, saludos
¿Y exáctamente qué tiene de mejor el DVI cuando el HDMI es lo mismo que el DVI+Audio?
No sé por qué lo mejor debería ser el DVI. Tanto el HDMI y el DVI trabajan con señales digitales. El HDMI tiene las ventajas de tener un conector mucho más pequeño y cómo que el DVI. Otra de las ventajas del HDMI es que también transmite audio.
Deventajas del HDMI con el DVI? No conozco ninguna (no quiere decir que no las haya)
Un saludo
Si yo lo digo porque he leido por aqui que para un ordenador es mejor conectarlo por DVI que admite todas las resoluciones, ya que el HDMI está 'capado' o limitado a resolucionec concretas (1080i máximo, lei por aqui)...yo antes tenia la idea de lo que decis, que DVI = Video y HDMI = Video+audio, pero tras leeros...
El popcorn hour saca cualquier resolución por HDMI.
DrJordi escribió:Si yo lo digo porque he leido por aqui que para un ordenador es mejor conectarlo por DVI que admite todas las resoluciones, ya que el HDMI está 'capado' o limitado a resolucionec concretas (1080i máximo, lei por aqui)...yo antes tenia la idea de lo que decis, que DVI = Video y HDMI = Video+audio, pero tras leeros...

Eso depende del fabricante del televisor/aparato/lo-que-sea. Por ejemplo mi Samsung solo admite las resoluciones predeterminadas 720p 1080i etc en HDMI mientras que en la entrada PC puedes meterle la que quieras (136x768 que es la nativa de mi panel) pero hay otras que puedes meter la res que quieras por HDMI.
A ver, la razón de que DVI-I sea lo mejor (en las gráficas) es que con un puerto DVI-I de una gráfica sacas tanto HDMI (con sonido), como DVI-D, como VGA. Es decir, DVI-I tiene la "magia" de admitir tres tipos de señales en un mismo conector, lo cual simplifica al máximo las cosas, ya que si, por ejemplo, queremos que una gráfica pueda admitir tres monitores simultáneos y a la vez si quieremos que estos tres monitores puedan estar conectados por tres señales distintas, tendría que tener 9 conectores distintos (3 DVI, 3 VGA y 3 HDMI), sin embargo, gracias a la magia del DVI-I, podemos implementar estos 9 conectores lógicos en tan solo 3 conectores físicos DVI-I, teniendo la misma funcionalidad en menos espacio (y menor coste).

Por ello, desde hace 10 años, todas las gráficas vienen con un DOBLE DVI-I (doble porque en este caso el máximo número de monitores es dos) pero ese doble DVI te permite conectar dos pantallas con DVI-I, dos pantallas con VGA, dos pantallas con HDMI, y cualquier otra combinación posible (una VGA y otra HDMI, por ejemplo). Para ello, lo único que hay que hacer es usar un cable DVI-HDMI en el caso del HDMI, o usar el adaptador DVI-VGA en el caso de VGA, que te viene incluido con todas las gráficas; o usar un cable DVI-D a DVI-D en el caso de querer utilizar DVI.

Es cierto que desde hace 3 años algunas gráficas de gama baja vienen con triple salida DVI-VGA-HDMI, pero eso, como digo yo, son gráficas TIMO, sirven para engañar a los poco entendidos, aparentan que tienen lo que otras gráficas no tienen (VGA y HDMI) y de esta forma hacen creer a la gente que están comprando algo que las otras no traen. Pero como he dicho, eso no es cierto, lejos de traer algo que las otras no traen, están más limitadas, ya que no permiten conectar dos monitores por HDMI, ni dos monitores por DVI, ha de ser uno por DVI y el otro por HDMI, y además eliminan el puerto TV-OUT, que permite sacar componentes, s-video y compuesto (ya que al tener los 3 puertos, no les CABE la salida TV-OUT, ¡vaya CHAPUZA!).

De hecho, si miráis las gráficas de gama alta, ninguna viene con VGA-DVI-HDMI, todas vienen con su doble DVI-I. Y, de hecho, las pocas gráficas ATI que además de tener un doble DVI, tienen también un puerto HDMI, ese HDMI está limitado a 480/720/1080, con lo que está pensado para salida de TV, no para monitor principal. El monitor siempre se debe conectar por DVI o DisplayPort (además, como ya han dicho, la mayoría de monitores de PC que tienen entrada DVI y HDMI, tienen el puerto HDMI capado a 480/720/1080, puesto que lo que esperan es que utilices el puerto DVI para el PC, y el HDMI para una consola o un aparato multimedia).
En realidad, DVI-I no es que sea lo mejor, sino lo más compatible y extendido por el momento, aunque eso parece que va a cambiar rápidamente en favor del HDMI.
El HDMI esta basado en el DVI ampliando el ancho de banda y añadiendo funcionalidades:

http://en.wikipedia.org/wiki/HDMI_1.4#Version_1.4

En cuanto a resolución, que yo sepa el HDMI soporta resoluciones superiores al DVI, no obstante los monitores de alta resolución (3280 x 2048) siguen usando DVI y cada uno necesita dos DVIs para funcionar con tarjetas dedicadas especiales, algo que en principio podría soportar el HDMI con un solo link (conexión).

El HDMI es el futuro, tanto el VGA como el DVI han quedado obsoletos o estan en proceso de quedar así. La única ventaja actual es que el DVI es más robusto mecánicamente, sin embargo es muy voluminoso en comparación con el HDMI.

Es lógico que cada vez más gráficas incluyan HDMIs puesto que los monitores van trayendo ese tipo de conexiones que son más funcionales que el DVI, unificando el sistema de conexión tanto en PCs como en TVs.
El que una gráfica traiga directamente salida HDMI la convierte en una opción funcional para aquellos que la conecten a un HDTV o a un monitor con entrada HDMI, sin tener que usar adaptadores que incrementan considerablemente el tamaño de la conexión.

El HDMI como ya han comentado no tiene limitaciones de resolución estrictamente a las de HDTV (1080p y 720p) esas limitaciones son del dispositivo reproductor o del TV/monitor.

Saludos.
Te equivocas, MDLSoft, el sucesor del DVI es el DisplayPort. En cualquier caso, ni DVI-D, HDMI y DisplayPort tienen anchos de banda similares, y MUY SUPERIORES a lo que realmente se necesita actualmente. De hecho, la resolución máxima de TODOS ellos (y tambien de VGA) es la MISMA: 2560×1600×60Hz (a 30 bits/píxel). La única razón por la que HDMI tiene actualmente un poco más de ancho de banda que el resto es porque se reserva una parte para una conexión Ethernet de 100 megas y un canal de audio de vuelta, entre otras cosas, que no tienen nada que ver con la imagen, pero en las tres conexiones: DisplayPort, HDMI y DVI-D, la resolución y calidad de imagen es la misma.

Y no, HDMI no puede soportar 3280×2048, HDMI soporta esa resolución a 30 Hz (o 4096×2160 a 24 Hz), pero a 60 Hz lo máximo que soporta es 2560×1600, lo MISMO que DVI y VGA.

En realidad HDMI y VGA/DVI/DisplayPort no se hacen competencia, el primero es para aparatos multimedia y los segundos son para ordenadores. De hecho, no hay que obsesionarse con ello, ambos convivirán, al menos en la próxima década. La única razón porque las gráficas tienen doble DVI y lo seguirán teniendo, es porque de un mismo conector sacas las tres señales.

En el futuro, y cuando VGA esté enterrado, la tendencia de las gráficas es a tener un triple DisplayPort, el cual a su vez es compatible con DVI-D y HDMI, luego podemos tener conectadas cualquier combinación posible: tres monitores DP/DVI, dos monitores DP y una tele HDMI, un monitor DVI, un monitor DP y una tele HDMI, etc.

Y por último, la razón por la que todos los aparatos (incluyendo ordenadores) no usan un conector común (porque la señal de vídeo actualmente ya es la MISMA, la única diferencia es el conector) es precisamente porque HDMI es un sistema privado, que requiere un pago de royalties, mientras que DVI y DisplayPort son sistemas basados en estándares GRATUITOS, así que por un lado los fabricantes de ordenadores no quieren perder la gratuidad y los fabricantes de televisiones no quieren perder el negocio que tienen montado con el HDMI (que originalmente no era más que una copia del DVI de pago). Por esa razón, los fabricantes de gráficas preferen poner DisplayPorts y que sea el usuario el que, si quiere, utilice un cable DP-HDMI.

De todas formas, yo veo bien que cada uno vaya por su lado, porque lo que importa es que internamente sean compatibles, y las señales puedan adaptarse de una a otra sin problemas. Por otro lado, HDMI empieza a implementar unas catacterísticas (que no son vídeo) y que a los usuarios de ordenador ni nos van ni nos vienen, opciones que además son de pago (royalties) y que termina pagando el usuario final. Y opciones que nos pueden venir muy bien al comprar una tele o un Blu-Ray, pero que no tienen sentido en un ordenador.
8 respuestas