Johny27 escribió:Yoshi's escribió:Eso será en tu monitor, es un monitor BUENO, con un ADC BUENO, no existe diferencia, a resolución nativa no existe diferencia ninguna.
El monitor del que hablo vale más de 2000 euros, así que bueno es.
No tiene nada que ver, hay monitores por 100 euros que solo tienen entrada VGA y el ADC hace su trabajo perefectamente, y hay otros de 300 euros (como el que tengo actualmente) que ya tienen HDMI, DVI y VGA se va horrible, pero se ve con unas ondas horribles como si tuviera interferencias (y está todo comprobado que está bien). Y luego hay teles de 3000 euros que directamente no tienen entrada VGA, así que imagina que ADC tienen para esta entrada: ninguno.
Johny27 escribió:Técnicamente es imposible que se vea 100% igual, pero acepto que hay gente que no lo nota.
Eso sí que no, técnicamente es perfectamente posible que se vea igual. Por eso lo afirmo. Imagina que tienes un monitor CRT, de resolución 1920x1080 conectado por VGA, pues VGA es una señal que, gracias a sus 5 señales: R, G, B, H y V, permite sacar cada uno de los píxeles de la resolución 1920x1080 de forma INDEPENDIENTE, y cada color no se ve afectado por los píxeles de alrededor ni nada parecido. Si mediante un ADC consigues digitalizar esa señal para representar cada uno de los píxeles del monitor, entonces tendrás la misma calidad (en ausencia de interferencias, que en un cable de 1 metro apantallado no tiene por qué haber).
Yo precisamente que estudio telecomunicaciones y ahora estoy dando las modulaciones analógicas y digitales, la ventaja de lo digital no es que sea mejor. De hecho, es más bien al revés, la naturaleza es analógica, el sonido y el color son analógicos; si tú lo ves analógico, lo ves de forma pura (de hecho, un CRT en la mayoría de los casos se ve mejor que un LCD, y un disco de vinilo suena mejor que un CD) y de hecho para pasar lo analógico a digital tienes que muestrearlo con la consiguiente pérdida de calidad. La ventaja de lo digital es que podemos detectar e incluso corregir los errores, y reconstruir la señal, asegurándonos que por el camino no se pierde información (pudiendo enviar datos a grandes distancias). La segunda ventaja de lo digital (y esto sí que se aplica aquí) es que en un mundo donde ya todo es digital, resulta más sencillo y más BARATO (sencillez de procesacimiento) enviar información digital. Precisamente las tarjetas gráficas son digitales, y los monitores TFT también, pues bien VGA implicaba pasar la señal de digital analógica con un DAC, y luego en el monitor pasarla de nuevo a digital con un ADC. Entonces esto implica pérdida de calidad si el DAC/ADC es malo, o si hay intereferencias, pero sobre todo es mil veces más caro que no tener DAC y que pasar la información directamente de forma digital.
Por tanto, es evidente que DVI nunca se va a ver peor: ausencia de transformaciones, ausencia de errores, etc., especialmente en un caso en el que ambos extremos ya son digitales. Pero para un caso ideal, con un cable bueno y unos conversores buenos, VGA se verá igual de bien que DVI. Lo primero porque el medio de transmisión no te deforma la imagen como para que sea apreciable por el ojo humano (tendrías que tener muchos metros de cable), y lo segundo porque tanto el DAC como el ADC están "sincronizados" para una resolución concreta, de forma que los píxeles entran donde tienen que entrar al monitor, y con el color que tienen que entrar. Digamos que por cable VGA viaja una imagen que acaba de ser
analogizada en la tarjeta gráfica, si luego el monitor, muestrea esa señal con la misma frecuencia que tenía la señal original, técnicamente tendríamos la misma señal, cuya única variación (pérdida) posible, sería el ruido gausiano que ha metido el cable, que para un cable bueno de un metro es completamente inapreciable.
Johny27 escribió:Será que sois poco exigentes.
Justamente al contrario, yo tengo dos monitores calibrados con un calibrador LaCie profesional. Si no, no los veo bien, así que imagina mi grado de exigencia.