¿Hay mucha diferencia entre vga y dv-i?

Mañana voy a pillar un monitor de 24" full hd

Ahora mismo tengo un tft de los normalitos de 19" el cual tengo conectado al pc vía vga

El nuevo, obviamente tiene conexión dv-i

En mi pc no tengo gráfica con dicha salida

¿hay mucha diferencia de vga a dv-i?

Decir que NO uso el pc para jugar a nada, simplemente para navegar, ver algún que otro video y para currar.

¿valdría la pena pillar una tarjeta gráfica con salida dv-i y aprovechar el monitor o, para lo que lo uso, mejor conectar el monitor por vga y listo?

Si hay mucha diferencai igual me gasto unas pelas en una nueva gráfica.
DVI es una señal digital mientras VGA es analógica, eso quiere decir que a no ser que el cable VGA esté bien apantallado la calidad del DVI se verá mejor que el VGA en términos de nitidez.

Mi opnión: no te gastes pasta en otra gráfica para ponerlo por DVI lo veo ciertamente una tontería cuando con el VGA puedes llegar a Full HD

Salu2
Yo si que noto diferencia y en un monitor de 24" lo vas a terminar notando, mejor compra una grafica de estas baratitas con salida hdmi y veras la diferencia ;)
spcat escribió:Yo si que noto diferencia y en un monitor de 24" lo vas a terminar notando, mejor compra una grafica de estas baratitas con salida hdmi y veras la diferencia ;)


Entonces.. ¿lo mejor es conectarlo por hdmi? Osea, pillar una gráfica que tenga salida hdmi (las he visto por unos 30 euros)

Entonces, de mayor a menor calidad:

HDMI
DV-I
VGA

¿no?
HDMI y DVI son de la misma calidad solo que HDMI saca resoluciones "Standard" por así decirlo y que también saca audio cosa que el DVI no, aunque creo haber leído a algun eoliano decir que tiene audio por DVI pero no lo recuerdo muy bien así que no te fíes mucho XD.

Así sería contando la calidad de vídeo
HDMI=DVI>VGA

Salu2
Vamos a ver,

DVI y HDMI ofrecen la misma calidad porque transmiten ambos la misma señal digital.
HDMI puede transmitir además sonido y está pensado para formatos de televisión,
resoluciones y refrescos de televisión. HDMI admite una menor longitud de cable.

DVI sólo transmite vídeo y está pensado para formatos de ordenador,
cualquier resolución y refresco que exista.

La diferencia de las conexiones digitales contra VGA es abismal, siempre que tengamos un buen monitor. Donde más se nota es en la fidelidad de la información de color, en digital los valores RGB 24 bits se transmiten exactos. Si el monitor está calibrado y cubre un alto porcentaje del espectro es cuando notamos una gran diferencia.

HDMI es para televisores, DVI para monitores.

Un saludo.
naima escribió:No, no y no.

DVI y HDMI ofrecen la misma calidad porque transmiten ambos la misma señal digital.
HDMI puede transmitir además sonido y está pensado para formatos de televisión.
HDMI admite una menor longitud de cable.

DVI sólo transmite vídeo y está pensado para formatos de ordenador.

La diferencia de las conexiones digitales contra VGA es abismal, siempre que tengamos un buen monitor. Donde más se nota es en la fidelidad de la información de color, en digital los valores RGB 24 bits se transmiten exactos. Si el monitor está calibrado y cubre un alto porcentaje del espectro es cuando notamos una gran diferencia.

Un saludo.


DVI tambien puede sacar sonido, el hdmi son todo desventajas, si el cable vga es bueno, la diferencia entre dvi y vga se nota poco, pero hay que dejars una pasta y no compensa
Joder, NO, DVI NO transmite sonido.
Algunas tarjetas gráficas poseen un cable/adaptador propio 'no estandard' que permite convertir la señal a HDMI con audio y vídeo ( el audio previo puente desde la tarjeta de sonido ) o a DVI con vídeo más audio coaxial ( un cable DVI con audio de manera paralela que seguimos sacando desde la tarjeta de sonido ). Nada de esto es estandard, sólo se encuentra en algunas marcas y el DVI sigue sin transmitir el audio si no que se convierte a HDMI o se envía el audio por otros hilos con sus conectores adicionales.
Y NO tampoco, de nada sirve la 'calidad' del cable VGA,
en VGA la tarjeta gráfica convierte la señal digital en analógica siendo ésta la primera merma de la información de color, el monitor posteriormente realizará el proceso inverso, de analógico a digital, segunda merma. El cable en 1,5 m no afecta para nada.

Y NO final, HDMI para utilizar el ordenador con la televisión es todo ventajas.

Edito: Para los curiosos
http://es.wikipedia.org/wiki/Digital_Visual_Interface
naima escribió:Joder, NO, DVI NO transmite sonido.
Algunas tarjetas gráficas poseen un cable/adaptador propio 'no estandard' que permite convertir la señal a HDMI con audio y vídeo ( el audio previo puente desde la tarjeta de sonido ) o a DVI con vídeo más audio coaxial ( un cable DVI con audio de manera paralela que seguimos sacando desde la tarjeta de sonido ). Nada de esto es estandard, sólo se encuentra en algunas marcas y el DVI sigue sin transmitir el audio si no que se convierte a HDMI o se envía el audio por otros hilos con sus conectores adicionales.
Y NO tampoco, de nada sirve la 'calidad' del cable VGA,
en VGA la tarjeta gráfica convierte la señal digital en analógica siendo ésta la primera merma de la información de color, el monitor posteriormente realizará el proceso inverso, de analógico a digital, segunda merma. El cable en 1,5 m no afecta para nada.

Y NO final, HDMI para utilizar el ordenador con la televisión es todo ventajas.

Edito: Para los curiosos
http://es.wikipedia.org/wiki/Digital_Visual_Interface


Más claro agua.
naima escribió:Joder, NO, DVI NO transmite sonido.
Algunas tarjetas gráficas poseen un cable/adaptador propio 'no estandard' que permite convertir la señal a HDMI con audio y vídeo ( el audio previo puente desde la tarjeta de sonido ) o a DVI con vídeo más audio coaxial ( un cable DVI con audio de manera paralela que seguimos sacando desde la tarjeta de sonido ). Nada de esto es estandard, sólo se encuentra en algunas marcas y el DVI sigue sin transmitir el audio si no que se convierte a HDMI o se envía el audio por otros hilos con sus conectores adicionales.
Y NO tampoco, de nada sirve la 'calidad' del cable VGA,
en VGA la tarjeta gráfica convierte la señal digital en analógica siendo ésta la primera merma de la información de color, el monitor posteriormente realizará el proceso inverso, de analógico a digital, segunda merma. El cable en 1,5 m no afecta para nada.

Edito: Para los curiosos
http://es.wikipedia.org/wiki/Digital_Visual_Interface




DVI sí transmite sonido, para que al adaptarlo a HDMI suene, el DVI tiene que transportar el audio. Y lo de los adaptadores NO ES CIERTO, con un cable ORIGINAL y estándar DVI-D -> HDMI se transporta tanto el vídeo como el audio.

Algunos no entendéis bien el concepto de señal digital. Una señal digital es digital porque no transmite vídeo, transmite símbolos (ojo, no digáis bits porque entonces la señal sería binaria; digital implica enviar símbolos con una determinada modulación, lo cual es mucho más eficiente que enviar bits). En una señal digital tú puedes transmitor lo que QUIERAS: vídeo digital, audio digital, imágenes o un juego de la Wii. En el HDMI se transmite vídeo y audio por el mismo canal digital, no se transmite el vídeo por unos pines y el audio por otros, se transmite todo junto, porque para eso es digital. Y en DVI como es igualmente digital pues puede transmitir exactamente los mismos datos que el HDMI con su sonido y todo. En conclusión, que DVI puede transmitir el sonido exactamente igual que el HDMI, incluso aunque el el diseño original no se pensó en eso. Y lo hace de forma completamente estándar, con cables completamente estándar.

Si mirases en la Wikipedia en inglés y no en la española lo verías:
http://en.wikipedia.org/wiki/Digital_Visual_Interface
Modern PC video hardware is providing audio (e.g., cards by NVIDIA and ATI), allowing the PC to send audiovisual data through a DVI cable to a high definition television with an HDMI input




naima escribió:Y NO final, HDMI para utilizar el ordenador con la televisión es todo ventajas


¿Quién ha hablado de utilizar el ordenador con la televisión? El autor de este hilo ha comprado un MONITOR FULL HD con DVI. Lo estándar son las gráficas con un doble DVI-I, que te permiten conectar: dos monitores con DVI, dos monitores con VGA (con un cable estándar DVI-A a VGA) o dos televisores con HDMI con sonido (mediante un cable estándar DVI-D a HDMI), o cualquier combinación de los anteriores, justo por eso es el estándar. No le dés mas vueltas, porque la ventaja de los DVIs en las gráficas es que sacan todo tipo de señales en un único conector.
Yoshi's escribió:
naima escribió:Joder, NO, DVI NO transmite sonido.
Algunas tarjetas gráficas poseen un cable/adaptador propio 'no estandard' que permite convertir la señal a HDMI con audio y vídeo ( el audio previo puente desde la tarjeta de sonido ) o a DVI con vídeo más audio coaxial ( un cable DVI con audio de manera paralela que seguimos sacando desde la tarjeta de sonido ). Nada de esto es estandard, sólo se encuentra en algunas marcas y el DVI sigue sin transmitir el audio si no que se convierte a HDMI o se envía el audio por otros hilos con sus conectores adicionales.
Y NO tampoco, de nada sirve la 'calidad' del cable VGA,
en VGA la tarjeta gráfica convierte la señal digital en analógica siendo ésta la primera merma de la información de color, el monitor posteriormente realizará el proceso inverso, de analógico a digital, segunda merma. El cable en 1,5 m no afecta para nada.

Y NO final, HDMI para utilizar el ordenador con la televisión es todo ventajas.

Edito: Para los curiosos
http://es.wikipedia.org/wiki/Digital_Visual_Interface


DVI sí transmite sonido, para que al adaptarlo a HDMI suene, es que el DVI tiene que transportar el audio. Y lo de los adaptadores NO ES CIERTO, con un cable ORIGINAl y estándar DVI-D -> HDMI se transporta tanto el vídeo como el audio.

Algunos no entendéis bien el concepto de señal digital. Una señal digital es digital porque no transmite video, transmite símbolos (ojo, no digáis bits porque entonces la señal sería binaria; digital implica enviar símbolos con una determinada modulación, lo cual es mucho más eficiente que enviar bits). En una señal digital tú puedes transmitor lo que QUIERAS: vídeo digital, audio digital, imágenes, un juego de la Wii. En el HDMI se transmite vídeo y audio por el mismo canal digital, no se transmite el vídeo por unos pines y el audio por otros, se transmite todo junto porque para eso es digital. Y en DVI como es igualmente digital pues puede transmitor exactamente los mismos datos que el HDMI con su nsonido y todo. En conclusión, que DVI puede transmitir el sonido exactamente igual que el HDMI, icnluso aunque el el diseño original no se pensó en eso. Y lo hace de forma completamente estándar, con cables completamente estándar.

Si mirases en la Wikipedia en inglés y no en la española lo verías:
http://en.wikipedia.org/wiki/Digital_Visual_Interface
Modern PC video hardware is providing audio (e.g., cards by NVIDIA and ATI), allowing the PC to send audiovisual data through a DVI cable to a high definition television with an HDMI input


Y además eso de que en la mayoría de las tarjetas hace falta conectar la tarjeta de sonido de la placa a la propia tarjeta para que ésta saque audio no es así. Mi ATi 4670 (que es de hace tres años por lo menos) incluye una tarjeta de sonido de 7.1 canales, sólo hay que decirle al Windows que use esa tarjeta para sacar el audio, así que me imagino que las actuales con más razón vendrán con eso.
Raúl DJ escribió:Y además eso de que en la mayoría de las tarjetas hace falta conectar la tarjeta de sonido de la placa a la propia tarjeta para que ésta saque audio no es así. Mi ATi 4670 (que es de hace tres años por lo menos) incluye una tarjeta de sonido de 7.1 canales, sólo hay que decirle al Windows que use esa tarjeta para sacar el audio, así que me imagino que las actuales con más razón vendrán con eso.


En las ATI no hace falta conectar nada.

En las nVidia, tanto si usas DVI como si usas HDMI, debes conectar el cable SPDIF a la placa base o tarjeta de sonido. Y repito, aunque tú te comprases una gráfica nVidia con doble HDMI, no tendrás sonido a menos que conectes el dichoso cable a la placa base. HDMI no saca el sonido mágicamente, debe hacerlo del chip de sonido de tu ordenador, y como las nVidia no lo tienen, hay que conectar el cable sí o sí.

Naima se ha liado y ha liado a los demás, DVI y HDMI transmiten el audio de la misma forma, por los canales de datos, el sonido no se transmite por pines aparte, sino por los mismos de la imagen, justo por eso se puede transmitir DE LA MISMA FORMA tanto por DVI como por HDMI, ya que no necesitas pines, cables ni adaptadores especiales, es todo LO MISMO. Y las gráficas toman el audio del mismo sitio tanto si con DVI como si son HDMI. Luego no se pueden buscar diferencias porque es que no las hay.

Por eso mismo a día de hoy, DVI-I es el estándar en las gráficas, y DVI-D el de los monitores.
Joder, ni puta idea de informática y ni puta idea de inglés,
para los que sí saben inglés, extraído del enlace a la wikipedia en inglés que un 'iluminado' ha citado:
As of 2010, there is a transition occurring for home TV monitors away from DVI towards HDMI as the common connector format. While DVI is pin-compatible with HDMI, DVI does not support audio while HDMI does. This creates an audio hardware limitation for people that want to connect their desktop computer (which typically uses DVI) to an LCD or plasma monitor (which may only have HDMI inputs).

The computer user is typically forced to run audio separately from another audio connector on their computer to the TV monitor, using either 1-channel analog RCA cables, or a digital audio cable. It is not possible to "inject" a SPDIF digital audio signal directly into a DVI to HDMI adapter.

Some ATI and NVIDIA video cards with DVI outputs offer HDMI audio output, though this is done using the DVI connector pins in a non-standard way, using a special custom DVI to HDMI adapter to route the audio out to the HDMI on the correct pins. Many of these cards now offer HDMI ports alongside DVI ports.

http://en.wikipedia.org/wiki/Digital_Visual_Interface

Modern PC video hardware is providing audio (e.g., cards by NVIDIA and ATI), allowing the PC to send audiovisual data through a DVI cable to a high definition television with an HDMI input
Qué parte de conversión a HDMI tampoco se entiende en ésta frase?

No, yo no me confundo, los iluminados que no tienen mayor idea que la de concectar un cable sin saber como funciona y decir después: 'Ostias, pues suena!'
esos son los que se confunden y pretenden confundir al personal.

Y aquí las especificaciones oficiales de DVI, nada de wikipedias: http://www.ddwg.org/lib/dvi_10.pdf

DVI NO transmite audio de manera oficial y todas las chapuzas extraoficiales realizadas por los fabricantes de tarjetas gráficas convierten siempre a HDMI porque ningún monitor o televisor espera recibir audio por un DVI.

Un saludo.
naima escribió:Joder, ni puta idea de informática y ni puta idea de inglés,
para los que sí saben inglés, extraído del enlace a la wikipedia en inglés que un 'iluminado' ha citado:
As of 2010, there is a transition occurring for home TV monitors away from DVI towards HDMI as the common connector format. While DVI is pin-compatible with HDMI, DVI does not support audio while HDMI does. This creates an audio hardware limitation for people that want to connect their desktop computer (which typically uses DVI) to an LCD or plasma monitor (which may only have HDMI inputs).

The computer user is typically forced to run audio separately from another audio connector on their computer to the TV monitor, using either 1-channel analog RCA cables, or a digital audio cable. It is not possible to "inject" a SPDIF digital audio signal directly into a DVI to HDMI adapter.

Some ATI and NVIDIA video cards with DVI outputs offer HDMI audio output, though this is done using the DVI connector pins in a non-standard way, using a special custom DVI to HDMI adapter to route the audio out to the HDMI on the correct pins. Many of these cards now offer HDMI ports alongside DVI ports.

http://en.wikipedia.org/wiki/Digital_Visual_Interface

Modern PC video hardware is providing audio (e.g., cards by NVIDIA and ATI), allowing the PC to send audiovisual data through a DVI cable to a high definition television with an HDMI input
Qué parte de conversión a HDMI tampoco se entiende en ésta frase?

No, yo no me confundo, los iluminados que no tienen mayor idea que la de concectar un cable sin saber como funciona y decir después: 'Ostias, pues suena!'
esos son los que se confunden y pretenden confundir al personal.

Y aquí las especificaciones oficiales de DVI, nada de wikipedias: http://www.ddwg.org/lib/dvi_10.pdf

DVI NO transmite audio de manera oficial y todas las chapuzas extraoficiales realizadas por los fabricantes de tarjetas gráficas convierten siempre a HDMI porque ningún monitor o televisor espera recibir audio por un DVI.

Un saludo.


Pero a ver, ¿dónde he dicho yo lo contrario?

Yo no he dicho nada que contradiga lo que tú estás diciendo ahora.

Vuelve a leerme y dime dónde he dicho yo algo que no sea cierto. En ningún momento he dicho que en las espcificaciones DVI llevase sonido, solo he dicho que ahora lo lleva porque es una señal digital y en una señal digital puedes meter LO QUE QUIERAS, como si quieres transportar un juego de Wii por un cable DVI o HDMI, que las especificaciones no permitiesen transmitir un juego de Wii era algo que ya se sabía.

Eres tú el que no te enteras, en este hilo estamos hablando de un monitor que tiene DVI-D, y estamos hablando de que se compre una gráfica con doble DVI-I, para que esa gráfica se puedea adatar tanto a VGA como a HDMI con sonido. Eso es lo que he dicho desde el principio, ¿tanto te importaría leer bien antes de contestar precipitadamente?

Obviamente, que la utilidad de que el DVI transmita sonido sea adaptarlo a una tele con HDMI eso es lo que he dicho yo desde el principio, eso es lo que dice la Wikipedia, y eso lo sabemos TODOS, ¿qué me estás contando ahora citando a la Wikipedia? ¿Qué me estás contando de que no sé inglés? Si eres tú el que no te enteras ni de lo que estamos hablando... Lo que dice la Wikipedia es lo que YO he defendido desde el principio. Evidentemente un monitor con entrada DVI no te va a reproducir el sonido aunque EL CABLE LO TRANSMITA (que de hecho sí lo transmite).
Editado y posteado en un nuevo mensaje.
Pues es completamente cierto, en una señal digital puedes enviar lo que quieras. De hecho, la prueba más sencilla de ver es que el HDMI 1.4 tramsite una señal Ethernet de 100 megabits. Obviamente, si una señal supuestamente de vídeo, puedes transmitir datos de una red Ethernet es que puedes transmitir cualquier cualquier cosa.

http://www.hdmi.org/manufacturer/hdmi_1_4/hec.aspx

Y lo mismo con DVI, en un cable sencillito dual link, puedes transmitr hasta 4 gigabits por segundo, lo que hagas con ese ancho de banda es cosa tuya, aunque obviamente en en diseño original estaba pensado para transmitir vídeo digital con una determinada calidad (la más alta posible). Y la razón por la que es posible añadir audio es porque el medio megabit que puede ocupar el audio digital en Dolby Digital 5.1 es tan absolutamente insignificante frente a los 4 gigabits, que es completamente viable añadir el audio sin reducir ni un ápice la calidad del vídeo, y esto es lo que hacen los fabricantes de tarjetas gráficas. Sin tocar el estándar del vídeo, es posible añadir audio, y que se transmita todo junto simuntáneamente.

Así que, ¿qué problema puede existir con transmitir sonido por un DVI? Pues obviamente ninguno. Simplemente se transmite una señal de vídeo HDMI por el cable DVI (o conector DVI), aquí lo que haces es utilizar el cable DVI como si físicamente un cable HDMI. Como ambos son cables de cobre y el estándar del HDMI es completamente retrocompatible con DVI, pues es algo que puede hacerse y que está en el estándar del HDMI (también puede hacerse hacerse a la inversa, transmitor una señal DVI por un cable HDMI). Evidentemente esta posibilidad no está en el estándar de DVI, pero porque sencillamente es más antiguo, y no se va a actualizar porque el Displayport lo ha sustituido (aunque podría hacerse de la misma que el HDMI se actualiza cada poco).

A nosotros, si lo que queremos es la gráfica saque sonido por las conexiones DVI, cualquier gráfica nos vale.
Yoshi's escribió:DVI sí transmite sonido, para que al adaptarlo a HDMI suene, el DVI tiene que transportar el audio. Y lo de los adaptadores NO ES CIERTO, con un cable ORIGINAL y estándar DVI-D -> HDMI se transporta tanto el vídeo como el audio.

Algunos no entendéis bien el concepto de señal digital. Una señal digital es digital porque no transmite vídeo, transmite símbolos (ojo, no digáis bits porque entonces la señal sería binaria; digital implica enviar símbolos con una determinada modulación, lo cual es mucho más eficiente que enviar bits). En una señal digital tú puedes transmitor lo que QUIERAS: vídeo digital, audio digital, imágenes o un juego de la Wii. En el HDMI se transmite vídeo y audio por el mismo canal digital, no se transmite el vídeo por unos pines y el audio por otros, se transmite todo junto, porque para eso es digital. Y en DVI como es igualmente digital pues puede transmitir exactamente los mismos datos que el HDMI con su sonido y todo. En conclusión, que DVI puede transmitir el sonido exactamente igual que el HDMI, incluso aunque el el diseño original no se pensó en eso. Y lo hace de forma completamente estándar, con cables completamente estándar.


Yoshi's escribió:Naima se ha liado y ha liado a los demás, DVI y HDMI transmiten el audio de la misma forma, por los canales de datos, el sonido no se transmite por pines aparte, sino por los mismos de la imagen, justo por eso se puede transmitir DE LA MISMA FORMA tanto por DVI como por HDMI, ya que no necesitas pines, cables ni adaptadores especiales, es todo LO MISMO. Y las gráficas toman el audio del mismo sitio tanto si con DVI como si son HDMI. Luego no se pueden buscar diferencias porque es que no las hay.


Yoshi's escribió:Vuelve a leerme y dime dónde he dicho yo algo que no sea cierto. En ningún momento he dicho que en las espcificaciones DVI llevase sonido, solo he dicho que ahora lo lleva porque es una señal digital y en una señal digital puedes meter LO QUE QUIERAS, como si quieres transportar un juego de Wii por un cable DVI o HDMI, que las especificaciones no permitiesen transmitir un juego de Wii era algo que ya se sabía.


Todas éstas citas son mentira.
Para empezar deberías molestarte en leer el enlace a la wikipedia inglesa que tú mismo citaste y que no has leído o no entiendes,
en él aparece explicado el pinout del DVI, y si lo hubieses leído/entendido sabrías que la información de color se transmite por pines separados para cada color, etc.
Todo lo contrario de tus posts arriba citados en los que te atreves a afirmar literalmente que 'no se transmite el vídeo por unos pines y el audio por otros, se transmite todo junto, porque para eso es digital'
Sirva como ejemplo para que vea todo el mundo de que tú no tienes ni puta idea de lo que hablas.

Y para no seguir liando a la gente con tus gilipolleces:
DVI transmite vídeo en formato digital y también puede portar señal analógica.
HDMI transmite audio y vídeo digital.
DVI está pensado para el uso con monitores, formatos, resoluciones y refrescos de monitor.
HDMI está pensado para televisíon, formatos, resoluciones y refrescos de televisión
Ambos poseen la misma calidad de imagen.
La señal de vídeo se puede convertir de manera estandard de DVI a HDMI.
DVI no puede transmitir audio, pero existen adaptadores de DVI a HDMI que previo suministro de audio unen la señal DVI+audio para sacar HDMI.
El audio nunca se transmite por el cable DVI, que quede claro, ni ningún televisor o monitor espera recibirlo.

Y todo lo demás es mentira.

Feliz navidad.
naima escribió:Todas éstas citas son mentira.
Para empezar deberías molestarte en leer el enlace a la wikipedia inglesa que tú mismo citaste y que no has leído o no entiendes,
en él aparece explicado el pinout del DVI, y si lo hubieses leído/entendido sabrías que la información de color se transmite por pines separados para cada color, etc.
Todo lo contrario de tus posts arriba citados en los que te atreves a afirmar literalmente que 'no se transmite el vídeo por unos pines y el audio por otros, se transmite todo junto, porque para eso es digital'
Sirva como ejemplo para que vea todo el mundo de que tú no tienes ni puta idea de lo que hablas.


ABSOLUTAMENTE NO. Todo lo que he dicho es completamente cierto.

¿Cuándo he dicho yo que el rojo, el verde y el azul se transmitan por el mismo pin? NUNCA, de hecho, tanto en DVI como en HDMI se transmiten los colores en PARALELO por diferentes pines, es la mejor forma de que en la pantalla se muestren de forma simultánea y con el mínimo lag todos los colores. ¿Te imaginas que risa si primero llegase el verde, luego el rojo y luego el azul? Pero el sonido sí se transmite de forma simultánea con el vídeo por sus mismos pines. Lo que yo he dicho es que el vídeo y el audio se transmiten JUNTOS, no hay unos pines para vídeo y otro distinto para audio, todo se transmite junto por los pines ya existentes (tanto en el DVI como en el HDMI), porque para eso es digital (y dado que el ancho de banda del audio es despreciable comparado con el del vídeo, no necesita un pin aparte).

Tanto HDMI como DVI transmiten datos en paralelo, ya que en un solo pin no habría ancho de banda suficiente para transmitir 4 gigabits, pero son datos DIGITALES. Un canal es para el rojo, otro para el verde y otro para el azul (ojo, en el HDMI también, a ver cómo te piensas que son compatibles si no). Aunque casa cable transmita la información de un color, siguen siendo DATOS DIGITALES, y al ser digital puedes transmitir CUALQUIER TIPO DE DATO en el ancho de banda restante, sea sonido, vídeo o juegos de Wii. El DVI y el HDMI no transmiten sonido por ningún pin adicional, lo HACEN POR LOS MISMOS PINES QUE SE TRANSPORTA EL VÍDEO, y por eso cualquiera de los dos puede transmitir sonido.

Y para nada es cierto que "existen adaptadores de DVI a HDMI que previo suministro de audio unen la señal DVI+audio para sacar HDMI", ¿qué adaptadores ni qué 8 cuartos? ¿Lo has probado tú mismo o hablas de oídas? En las gráficas, el audio y el video SALEN JUNTOS desde la tarjeta gráfica por el conector DVI (y, por tanto, por los pines que tanto conoces) y cuando usas un cable DVI-HDMI a la tele le llega la información de sonido y la reproduce; y le llega la información de vídeo y la muestra. Y eso puede hacerse con cualquier tele, de hecho, con la tele que estoy usando ahora como monitor, el sonido lo estoy sacando de un DVI de mi gráfica SIN ADAPTADOR NINGUNO, utilizando un cable DVI-HDMI absolutamente estándar (definido por el estándar HDMI, el cual permite total retrocomptibilidad con DVI). Pero previamente, para que a la tele le llegue el sonido a su HDMI, la gráfica ha tenido que sacar el audio POR LOS PINES DEL CONECTOR DVI, y lo hace por los mismos pines que circula el vídeo.
Me voy a meter en un berenjenal pero juraría que los dos estáis equivocados en parte.

La diferencia principal en las especificaciones originales de ambos formatos es que HDMI transmite audio a la par que vídeo, y soporta HDCP. Que posteriores revisiones o modificaciones de DVI puedan enviar datos o usar HDCP es otro cantar (decir que lo hacen a través de conectores y/o métodos no pertenecientes al estandar DVI). En estos casos, el audio SI se transporta a traves del propio cable DVI, con un adaptador especial. Esto todo lo pone en el artículo de la Wikipedia inglesa, solo hay que leerlo entero.
Y si... dejamos de faltar al respeto y contestamos las cosas como personas mayores y no como niños de parvulario.
masual escribió:Me voy a meter en un berenjenal pero juraría que los dos estáis equivocados en parte.

La diferencia principal en las especificaciones originales de ambos formatos es que HDMI transmite audio a la par que vídeo, y soporta HDCP. Que posteriores revisiones o modificaciones de DVI puedan enviar datos o usar HDCP es otro cantar (decir que lo hacen a través de conectores y/o métodos no pertenecientes al estandar DVI). En estos casos, el audio SI se transporta a traves del propio cable DVI, con un adaptador especial. Esto todo lo pone en el artículo de la Wikipedia inglesa, solo hay que leerlo entero.


Pero a ver, que nunca he dicho lo contrario.

En primer lugar, la Wikipedia dice: If a PC's DVI output does not support HDMI audio, an adapter may be required to combine the DVI video signal with analog or digital audio. Since HDMI carries digital audio interleaved with the video data, these adapters can be relatively expensive, que significa: "Si la salida DVI del ordenador no soporta audio HDMI, puede ser requierido un adaptador [bla bla bla]". Desde hace ya 4 años, todas las gráficas (ATI y nVidia) soportan DVI con audio, luego NADIE aquí ha hablado de adaptadores especiales, porque no son necesarios. Es más, todo el rato hemos estado hablando de gráficas que NATIVAMENTE soportan audio en el DVI (todas las actuales), en las que no hace falta adaptador ninguno. Y luego dice lo que yo llevo afirmando todo el rato, que en el DVI con sonido HDMI, el audio va INTERCALADO (interleved) con el vídeo y que por eso esos adaptadores son tan caros, obviamente para que el sonido de un DVI funcione como si fuera HDMI el sonido tienes que intercalárselo en la señal digital de vídeo; precisamente lo que yo llevo defendiendo desde el primer momento, que el audio se transmite JUNTO (intercalado) al vídeo, en los mismos pines.

En segundo lugar, nunca he dicho que DVI soporte audio oficialmente, solo que como la señal es digital, se lo han podido meter, eso es lo que dice la Wikipedia y he de recordar que yo he sido el que la ha citado. Y ojo, que citar no significa que todo lo que dice la Wikipedia sea válido, yo hablo con conocimiento previo, lo que he aprendido en la carrera a lo largo de estos innumerables años, la Wikipedia la utilizo para demostrar que lo que digo es cierto y no me lo he inventado, no como base ni mucho menos como fuente. Que da la sensación de que algunos solo se leen la Wikipedia y ya hablan del tema como si lo supieran de toda la vida.

Con gráficas que lo soporten, no se requiere ningún adaptador especial. Decir lo contrario es como querer convencerme que la gráfica con doble DVI (y sin HDMI) que estoy usando desde hace dos años con un cable DVI-HDMI no saca sonido. Pues leñe, si me lleva funcionando con sonido dos años sin usar ningún adaptador, nunca me vas a convencer de lo contrario, porque es algo que estoy viendo con mis propios ojos (otra cosa es que, como ingeniero de teleco, tenga nociones de cómo se transmiten las señales; pero aunque no lo fuese nunca me vas a convencer que lo que estoy viendo y oyendo no es cierto). Y precisamente si se ha podido meter (extraoficialmente, si quieres) ese audio al conector DVI, es porque al ser señal digital se puede meter en los pines ya existentes (en el ancho de banda sobrante). Obviamente si necesitase otro pin aparte, DVI nunca podría transmitir sonido, ya que no se puede añadir un pin extra al conector. Y lo mismo puede consultarse en el estándar HDMI, que no tiene un pin exclusivo de audio, sino que se transmite junto al vídeo.

Y cualquier señal digital transmite datos, eso no se lo han añadido al DVI ni al HDMI, eso es nativo de cualquier señal digital. Al VGA aunque quisieras no podrías añadirle sonido, a cualquier señal digital, sí.
NO coño, NO.

Yoshi's escribió:En segundo lugar, nunca he dicho que DVI soporte audio oficialmente


Yoshi's escribió:DVI sí transmite sonido, para que al adaptarlo a HDMI suene, el DVI tiene que transportar el audio. Y lo de los adaptadores NO ES CIERTO, con un cable ORIGINAL y estándar DVI-D -> HDMI se transporta tanto el vídeo como el audio.
... Y lo hace de forma completamente estándar, con cables completamente estándar.


No sigo quoteando porque me aburro.

Vamos a ver,
Qué parte de 'cable adaptador DVI-HDMI' no has entendido?
La palabra adaptador tal vez?
Qué parte de 'tú tarjeta gráfica es el propio conversor' no has entendido?
O acaso esperabas que la industria no desarrollase el conversor DVI-HDMI integrado en la propia gráfica?
Sabes realmente como se transmite la información en ambos formatos?
Algo sabes, en especial a medida que te he ido rebatiendo y tu has ido leyendo y retractándote, pero no lo entiendes.

Efectivamente DVI y HDMI tienen pinouts compatibles, de cualquier otra forma no sería posible adaptar la señal con un simple cable.
Pero mientras que HDMI lleva audio, DVI no lo hace. HDMI transmite el audio multiplexado en la señal de vídeo, lo cual permite realizar una artimaña.
No podemos añadir audio SPDIF directamente, es necesario multiplexar antes lo que requiere siempre de un conversor de señal.
Dicho conversor de señal puede ser externo o interno, que sea interno no significa que no exista.
Como los pinouts son compatibles hacemos lo siguiente:
- Cogemos la señal de audio de la tarjeta de sonido, este puente puede ser interno o externo, incluso sin cables visibles en el caso de chipsets multifuncionales ( el puente se realizaría a través de los propios circuitos integrados )
- Multiplexamos el audio con la señal de vídeo mediante un conversor de señal ( externo o interno )
- Emitimos una señal HDMI a través del puerto DVI, teniendo en cuenta la conversión de pines.
- Un cable adaptador DVI-HDMI realiza simplemente un cambio de conector.

Qué parte de 'la tarjeta gráfica emite una señal HDMI por el conector DVI' no se entiende?
Desde cuándo eso significa que DVI soporte audio?
Repito, se está emitiendo una señal 100% HDMI a través de un conector DVI y un cable realiza el emparejamiento de pines necesario y nos entrega un conector HDMI ( con su señal HDMI ), nada de esto es estandard de DVI o HDMI y en ningún momento se emite audio por DVI. ( porque no se puede )

DVI y HDMI son más que un cable o un conector, pero esto es algo difícil de entender para algunos.
DVI ( y HDMI paralelamente ) implica un conector con una determinada forma, con un determinado pinout, por el cual se transmite información con determinada codificación a determinadas frecuencias, con determinados codecs, por un cable con unas especificaciones determinadas, multiplexado de una determinada forma, a un determinado ratio, etc.

Es decir, cuando vuestras gráficas modernas emiten una señal HDMI a través de un conector DVI están emitiendo en HDMI, en DVI tal vez?
En ninguno de los dos.
De hecho, es tal la chapuza que ha durado lo justito. Las gráficas más actuales ya incluyen en conector HDMI.

Creo que ya lo he dejado claro, más sólo el agua, aunque puede haber algún lerdo que siga sin entenderlo.

En fin, volviendo a la pregunta del creador del hilo, a la cual ya respondí atrás pero ha quedado sepultada.
Para que le quede claro:
- Sí, existe mucha diferencia entre la señal digital DVI y la analógica VGA. En especial en la fidelidad de la información de color puesto que a través de VGA se realizan 2 conversiones digital-analógico, analógico-digital.
- Consejo, puesto que tu monitor posee entrada DVI, utilízala.
- Alguien mencionó también HDMI. Tiene la misma calidad de imagen que DVI.
Transmite además sonido. Si posees una televisión con entrada HDMI y tu tarjeta gráfica salida HDMI puedes conectar ambas.
En muchos casos necesitarás conectar una salida de audio ( interna de manera general ) desde la tarjeta de sonido hasta la gráfica.
Existen algunas gráficas que no poseen conector HDMI pero sí dan salida HDMI a través de uno de los conectores DVI. En ése caso necesitarás un cable DVI-HDMI para llevar la señal HDMI a la tele.

Un saludo.

PD: Paso de seguir perdiendo el tiempo discutiendo con 'gente con cantidades infinitas de tiempo libre'
Yo soy técnico de imagen y sonido y Naima tiene toda la razón, no insistas Yoshi's.
/offtopic
Yoshi's ha ido soltando 'perlas cultivadas' en sus post que no perderé mi tiempo en citar y desmenuzar, siendo positiva pensaré que al menos la mayoría son fruto de las prisas y el deseo de no enrrollarse demasiado.

Pero hay un par de ellas que me han preocupado viniendo de un supuesto estudiante de telecomunicaciones.

- 'audio se transmite JUNTO (intercalado) al vídeo' ( sobre el HDMI )
NO, el audio va multiplexado, por división de tiempo para ser más exactos.
Intercalado y multiplexado no son lo mismo ni se parecen.

- 'En una señal digital tú puedes transmitor lo que QUIERAS'
Y en analógico también.
Que por un canal digital puedes emitir lo que quieras es cierto, pero en el momento que desees transmitir dos informaciones de tipo diferente necesitas separarlas mediante un mecanismo de multiplexación, como HDMI hace.
Y en analógico es exactamente igual, puedo por ejemplo multiplexar audio y vídeo para emitirlos por el mismo canal. No existe esa diferencia que tú parece das a entender.
naima escribió:No sigo quoteando porque me aburro.

Vamos a ver,
Qué parte de 'cable adaptador DVI-HDMI' no has entendido?
La palabra adaptador tal vez?
Qué parte de 'tú tarjeta gráfica es el propio conversor' no has entendido?
O acaso esperabas que la industria no desarrollase el conversor DVI-HDMI integrado en la propia gráfica?
Sabes realmente como se transmite la información en ambos formatos?
Algo sabes, en especial a medida que te he ido rebatiendo y tu has ido leyendo y retractándote, pero no lo entiendes.

Efectivamente DVI y HDMI tienen pinouts compatibles, de cualquier otra forma no sería posible adaptar la señal con un simple cable.
Pero mientras que HDMI lleva audio, DVI no lo hace. HDMI transmite el audio multiplexado en la señal de vídeo, lo cual permite realizar una artimaña.
No podemos añadir audio SPDIF directamente, es necesario multiplexar antes lo que requiere siempre de un conversor de señal.
Dicho conversor de señal puede ser externo o interno, que sea interno no significa que no exista.
Como los pinouts son compatibles hacemos lo siguiente:
- Cogemos la señal de audio de la tarjeta de sonido, este puente puede ser interno o externo, incluso sin cables visibles en el caso de chipsets multifuncionales ( el puente se realizaría a través de los propios circuitos integrados )
- Multiplexamos el audio con la señal de vídeo mediante un conversor de señal ( externo o interno )
- Emitimos una señal HDMI a través del puerto DVI, teniendo en cuenta la conversión de pines.
- Un cable adaptador DVI-HDMI realiza simplemente un cambio de conector.

Qué parte de 'la tarjeta gráfica emite una señal HDMI por el conector DVI' no se entiende?
Desde cuándo eso significa que DVI soporte audio?
Repito, se está emitiendo una señal 100% HDMI a través de un conector DVI y un cable realiza el emparejamiento de pines necesario y nos entrega un conector HDMI ( con su señal HDMI ), nada de esto es estandard de DVI o HDMI y en ningún momento se emite audio por DVI. ( porque no se puede )

DVI y HDMI son más que un cable o un conector, pero esto es algo difícil de entender para algunos.
DVI ( y HDMI paralelamente ) implica un conector con una determinada forma, con un determinado pinout, por el cual se transmite información con determinada codificación a determinadas frecuencias, con determinados codecs, por un cable con unas especificaciones determinadas, multiplexado de una determinada forma, a un determinado ratio, etc.

Es decir, cuando vuestras gráficas modernas emiten una señal HDMI a través de un conector DVI están emitiendo en HDMI, en DVI tal vez?
En ninguno de los dos.
De hecho, es tal la chapuza que ha durado lo justito. Las gráficas más actuales ya incluyen en conector HDMI.

Creo que ya lo he dejado claro, más sólo el agua, aunque puede haber algún lerdo que siga sin entenderlo.

En fin, volviendo a la pregunta del creador del hilo, a la cual ya respondí atrás pero ha quedado sepultada.
Para que le quede claro:
- Sí, existe mucha diferencia entre la señal digital DVI y la analógica VGA. En especial en la fidelidad de la información de color puesto que a través de VGA se realizan 2 conversiones digital-analógico, analógico-digital.
- Consejo, puesto que tu monitor posee entrada DVI, utilízala.
- Alguien mencionó también HDMI. Tiene la misma calidad de imagen que DVI.
Transmite además sonido. Si posees una televisión con entrada HDMI y tu tarjeta gráfica salida HDMI puedes conectar ambas.
En muchos casos necesitarás conectar una salida de audio ( interna de manera general ) desde la tarjeta de sonido hasta la gráfica.


Estoy completamemnte de acuerdo en todo. Es LO MISMO QUE YO HE DICHO DESDE EL PRINCIPIO. El problema es que lo entiendes ni lees lo que escribimos y decimos los demás.

Yo lo único que he dicho es que para que el cable transporte sonido, la gráfica lo saca por el puerto DVI y por tanto físicamente el puerto DVI saca sonido (gracias a la compatibilidad del HDMI y del DVI), es lo que yo he dicho desde el principio y eso es lo mismo que estás diciendo tú ahora.

Que tú lo consideres una chapuza es una opinión personal, yo prefiero una gráfica con DOBLE DVI-I, porque desde un DVI puedo sacar HDMI con sonido, puedo sacar VGA y puedo sacar DVI-D, es decir, es un conector universal. Sin embargo, si una gráfica tuviese 2 HDMI (sin ningún DVI) sería una mierda porque solo se puede sacar señal HDMI, no se puede sacar DVI ni VGA. Y si mi monitor tiene una entrada DVI sin HDCP, no podría conectarlo a través de un cable HDMI-DVI, y si tiene una entrada VGA tampoco (porque desde un HDMI no se puede sacar señal analógica).

El hecho de que una gráfica lleve un puerto DVI-D, un puerto VGA y un puerto HDMI (como muchas últimamente) es un TIMO, porque la gracia de que tenga dos puertos es tener dos monitores iguales (para por ejemplo, extender el escritorio), si tienes una salida de cada, ya me dirás la utilidad. En consecuencia, que las gráficas, siempre que sea posible, con doble DVI-I.



naima escribió:Existen algunas gráficas que no poseen conector HDMI pero sí dan salida HDMI a través de uno de los conectores DVI. En ése caso necesitarás un cable DVI-HDMI para llevar la señal HDMI a la tele.


TODAS desde hace 4 años, desde la serie 7000 de nVidia y desde la serie 2000 de ATI, todas lo hacen. Por tanto, no digas algunas, porque si algo llevo repitiendo desde el principio es que como todas lo hacen, lo mejor es comprarse la gráfica con doble DVI, desde la cual poder sacar el HDMI, el audio y todo lo demás.



naima escribió:- 'audio se transmite JUNTO (intercalado) al vídeo' ( sobre el HDMI )
NO, el audio va multiplexado, por división de tiempo para ser más exactos.
Intercalado y multiplexado no son lo mismo ni se parecen.


Perdona, yo nunca he dicho que fuera intercalado, eso es lo que ponía en la Wikipedia (interleaved), yo simplemente lo he traducido. En cualquier caso, intercalado y por multiplicación por división en el tiempo es exactamente LO MISMO, porque en la TDM de dos señales, envías primero un trocito de una, luego un trocito de la otra, luego otro trocito de la primera, después otro trocito de la segunda, luego otro trocito de la primera..., y eso de toda la vida es lo que en languaje coloquial se dice INTERCALADO, es decir, que primero va una y luego otra, cuando tú intercalas dos cosas, ¿a qué te refieres si no es a eso? Si fuera por división en frecuencia o división en código no sería intercalado (se transmitirían de forma simultánea en diferentes frecuencias o con diferentes códigos), pero intercalado y por división en el tiempo es EXACTAMENTE LO MISMO, dos dos formas de describir lo mismo.

¿Ves el problema? Tú y yo estamos diciendo exactamente lo mismo, y pese a ello según tú lo que yo digo está mal.

Y lo de la señal analógica lo mismo, yo en una señal analógica de vídeo como VGA no puedo meter sonido. Es decir, no puedo meter sonido sin que la señal de vídeo se resienta. Si yo meto una VGA con sonido a un monitor VGA que no está preparado para recibir (desmultiplexar) el sonido, no me reproducirá el sonido ni tampoco me va a mostrar correctamente el video, la que la señal multiplexada me ha modificado la señal original del vídeo. Sin embargo, en la señal DVI al ser digital, si y solo si tengo ancho de banda sobrante, puedo meter información de audio (o un juego de Wii, o datos encriptados), que si el receptor no está reparado para recibirla, la ignorará y punto, pero el vídeo lo seguirá mostrando correctamente.

Pero vamos, que esto pasa en más escenarios (salvando las distancias), por ejemplo, en una imagen digital, yo puedo encriptar un mansaje oculto que si el receptor sabe que está ahí (y tiene la clave) podrá descifrarlo. Sin embargo, si otro receptor diferente recibe la imagen, pues simplemente verá la imagen y para él esa imagen será como otra cualquiera, no podrá sospechar que en ella hay un mensaje oculto. Sin embargo, en una imagen analógica eso no es posible, si hay un mensaje secreto tendrá que estar en la propia imagen (obviamente si es analógica no será del mundo de la informática, podrá ser un mesaje oculto en una pintura, que si la ves con una lupa la ves el mensaje, por decir una tontería). Es decir, puede pasar más o menos desapercibido, pero el mensaje físicamente está en la imagen y es visible.
De verdad estudias telecomunicaciones?
De verdad en un examen escribes que en el HDMI audio+vídeo+datos 'van intercalados' y tus profesores te aprueban?
De verdad no te han enseñado nada de transmisión de señales analógicas?
Ni siquiera radio y televisión? No sabes como se emite la televisión analógica por satélite?

Primero, no decimos lo mismo porque el lenguaje científico/técnico es estricto.
Segundo, no me importa seguir la conversación siempre que sea productiva, pero no pienso seguir alargando más este hilo.

Tercero, y sólo para que ningún lector quede confundido,
ya que has hablado de añadir audio a una señal VGA te diré que te vuelves a equivocar.
Se puede emitir por un cable VGA una señal VGA y multiplexada por división de frecuencia añadir audio ( a partir de 1Ghz por ejemplo ) sin que la señal VGA se resienta y sin que un monitor que no espera audio se percate de la existencia de éste pero muestre la imagen. Nada de esto sería estándar de VGA, por supuesto, pero podría haberlo sido.
Antes de nada, si no te sobra el tiempo y no quieres seguir alargando este hilo nadie te pide que contestes, contestes o no ya sabemos que no estás de acuerdo, pero yo me aburro y es lo que hay.

Pues sí, de verdad estudio telecomunicación (que no en plural, tengo un profesor que se enfada mucho si lo dices en plural), y de verdad que nunca he estudiado nada de comunicaciones analógicas, ni lo voy a estudiar porque acabo este año 2011 (el Grado). Las comunicaciones analógicas en los grados ya no se dan, ni TV (solo vemos DVB) ni mucho menos satálites (dentro de satélites vemos DVB-S).

Y segundo, ya he te dicho que la expresión de INTERCALADO no era mía, ni siquiera la mencioné YO, solo la cité y traducí esa frase de la Wikipedia, a mí no se me abría ocurrido decir esa palabra, y de hecho de mi teclado no ha salido excepto cuando traducí la frase de la Wikipedia que hablaba de eso. Fíjate que es la tercera vez que lo digo, que no es mía sino de la Wikipedia, y tú erre que erre que la he dicho yo (¡un teleco!). Pese a lo cual, es absolutamente adecuada y acertada para un foro que es de información general, no es un foro de telecos.

Lo de la multiplexación del sonido que propones para VGA solo sería posible si VGA tuviera el vídeo modulado en frecuencias bajas y luego todo receptor (todo monitor) aplicase un filtro paso bajo para quedarse con la información de la imagen descartando el sonido. Si el receptor no aplicase adecuadamente el filtro paso bajo (porque sencillamente no espera que en frecuencias altas haya nada más) entonces la información del sonido a altas frecuencias interferiría con la información de vídeo (si lo miras en el dominio del tiempo, la señal del sonido no deja de ser otra señal que estás transmitiendo encima de la del vídeo y si no se filtra adecuadamente está metiendo interferencias al vídeo, a eso es a lo que me refería cuando dije que "la señal multiplexada me ha modificado la señal original del vídeo", ya que obviamente, en dominio temporal, la imagen del vídeo se ha modificado al añadir otra señal encima con el sonido). También es posible que la solución que propones (modular a partir de 1 GHz) no sea posible porque a esa frecuencia la señal esté lo suficientemente atenuada como para que no sea posible, o más en particular que con cables de determinadas longitudes funcione el vídeo (que está en frecuencias bajas) pero no el audio (porque está atenuado a frecuencias altas). En conclusión, que solo en una señal digital se puede meter audio (o cualquier tipo de datos) con garantías.

La idea de meter sonido en una señal analógica tendría más agujeros que un coladero. Básicamente porque, como llevo diciendo desde el principio, solo funcionaría si es algo que está en el estándar y todo monitor (que recibda vídeo pero no audio) filtra adecuadamente las bajas frecuencias para quedarse solo con el vídeo. Si metes el sonido a altas frecuencias y eso no está en el estándar tendrás: cables que no lo soportan (porque atenúan las altas frecuencias), monitores que no filtran correctamente esas bajas frecuencias y el sonido les interfiere a la imagen, etc. Con lo digital no tienes ninguno de estos problemas.
Joder si que os aburrís xD.

A ver respecto al primer post, para un usuario casual, si te sirve mi experiencia usando diferentes tft's de gama baja- media (entorno a unos 200€) la única diferencia que he visto entre vga y dvi es que por dvi la imagen es mas estable, 0 ruidos, a nivel de calidad de imagen y de colores para mi no he visto ninguna diferencia muy grande, quizá se vea un pelin mejor con colores a 32bits la señal sacada por dvi pero quizá sea una simple apreciación mía xD.

Luego scomprarse una gráfica con salida dvi sólo valdría la pena si quieres conectar el ordenador a la tv, ya que por dvi si la gráfica no tiene salida hdmi que muchas lo tienen, pues como han dicho con un convertidor de dvi a hdmi ya te sale el sonido y por vga es más coñazo conectarlo ya que tienes que meter más cables.

saludos.
Yoshi's
está claro que tú de física ni pajolera, además tienes un concepto equivocado del significado digital, digital no es real, el universo no es digital, toda transmisión electromagnética consiste en electrones y fotones.
Lo digital es sólo una manera distinta de leer/escribir mediante ondas electromagnéticas.
Es obvio que no te han enseñado nada de comunicaciones analógicas, no tienes ni idea.
Una prueba más de que el nuevo sistema educativo español apesta.

El ejemplo que te puse con la VGA pretendía ser simple
se podría 'añadir' información no estándar a un protocolo analógico?
por ejemplo, mensajes secretos en una señal de TV sin alterar la recepción, emitiendo/recibiendo con la misma antena y sin recurrir a frecuencias fuera de la franja del canal?
SÍ, por supuesto, yo sé como hacerlo, durante la guerra fría se hacía, pero tú no sabes cómo.

Te aburres?
Estudia, porque la amplitud de tu desconocimiento es alarmante.
Yo no me aburro, no seguré llenando de mierda el hilo,
si quieres algo de mí, por MP.
¿Digital? Pero si no no he mencionado NADA de digital en mi post, he puesto unos casos posibles de una señal VGA (que es analógica), ¿y no sé nada de lo que es digital? Pues a ver como lo intuyes si no he hablado de ello. Y sí, el mundo real no es digital (otra cosa que tampoco viene a cuento, porque no he mencionado nada del mundo real) pero es que resulta que a mí no me interesa el mundo real, solo me interesa mandar bits a distancia (tele-comunicar), me da igual lo que haya en esos bits, y si hablamos de un monitor, que está compuesto por píxeles, en los cuales cada color se codifica con 8 bits, pues sí, envío los bits y tan feliz. Ya se ocuparán otros ingenieros del "marrón" de pasar imágenes y sonido analógicos (reales) a digitales, yo solo me encargo de transmitirlas. Y lo analógico no nos lo enseñan porque no lo vamos a usar en nuestra vida profesional, así de sencillo, lo poco que queda, dejará de existir.

Y sí, para hablar del sistema educativo español, mejor ir a otro hilo.


naima escribió:El ejemplo que te puse con la VGA pretendía ser simple


¿No te joroba? ¡Exactamente igual que yo! Yo también pretendía ser simple cuando traduje de la Wikipedia que el sonido iba INTERCALADO para referirme a lo que técnicamente se conoce como TDM XD, y vas tú y me preguntas que si: "en un examen escribes que en el HDMI audio+vídeo+datos 'van intercalados' y tus profesores te aprueban", y afirmabas que me estaba equivocando complemente y no tenía ni idea, cuando realmente estaba diciendo lo mismo que tú con otra palabra, jajaja. Ahora has probado tu propia medicina (en el buen sentido, no es a mala idea, simplemente me ha hecho gracia la respuesta después de lo tiquimiquis que has sido con las mías), si no hubieras llevado la discusión a estos extremos, no se me habría ocurrido citarte por una tontería así... Al menos ahora ya sabes lo que se siente cuando te dicen que estás equivocado cuando realmente es el otro el que está equivocado porque no se ha molestado en entenderte, jeje. Para que veas que yo también reconozco que me he equivocado (pero no puedes ir por la vida diciendo que el otro se equivoca en todo y que tú no te equivocas en nada).
Joder, cuando decías que te aburrías era cierto ...
Anda, deja de decir tonterías y se menos crío, a mí al menos ni te molestes, retiro mi invitación a seguir una conversación constructiva en privado, no te enteras de nada y me ibas a seguir haciendo perder tiempo, te añado a ignorados para evitar más dolor de cabeza.

Las dudas que el creador tenía están resueltas, reporto para que cierren.

Un saludo.
En EOL los hilos no se cierran porque las dudas estén resueltas. Y menos si el autor del hilo no ha dicho en ningún caso que esté resuelta. Y aunque esté resuelta cualquiera puede aprovechar para proponer su pregunta relacionada sin necesidad de abrir otro. Luego no entiendo a cuento de qué te interesa cerrarlo, para colmo es que ni siquiera lo has abierto tú, no hagas perder tiempo al moderador.

Lo que yo no veo es por qué sigues posteando, obviamente no quiero seguir ninguna conversación, ni aquí ni en privado. Pero deja el hilo tranquilo que ya se hundirá si nadie postea o volverá a subir si alguien tiene otra duda, que yo estaré por quí para resolver cualquier otra duda que surja al autor del hilo o a cualquier otro forero.
31 respuestas