Nvidia presenta G-Sync, un modulo para el monitor que elimina el tearing

futuro mad max escribió:
darksch escribió:la mejora de movimiento (los llamados 100Hz).


Eso no es una mejora, es interpolado y para juegos es mejor apagarlo

Jo hijo, ya sé que es interpolación, y que no se usa para juegos. Vaya manía con los tecnicismos y aquí todo el mundo a ser el súper-entendido de todo. Si no se le llama por su nombre científico ya te saltan a la de menos. Vamos que tú en lugar de tiburón blanco dices Carcharodon carcharias.
Riwer escribió:Ademas, no solo existen los juegos punteros, y cada vez las graficas son mas potentes. Jugar a 120FPs a juegos del año pasado te lo hace cualquiera de la serie 670 para arriba con el pene.
Y ya algo mas antiguos de 200fps para arriba


tu mismo me estas hablando de 300 fps 400 fps en cada mensaje

Ahora me hablas de 45 fps?

Yo y creo que todo el mundo e incluso nvidia que es la que saca la solucion es para problemas de tearing por encima de la tasa de refresco del monitor ya que sus tarjetas las venden para que tengas muchos fps y no pocos y que luego encima tengas problemas

Sobre lo de hsz interpolados y a riesgo de que me salte otro al cuello , yo creo que eso era antiguamente ahora los hzs interpolados llegan a 600hz 800hz y hay LCD y LED de 100-200 hz reales
destroyerjjbg escribió:
Riwer escribió:Ademas, no solo existen los juegos punteros, y cada vez las graficas son mas potentes. Jugar a 120FPs a juegos del año pasado te lo hace cualquiera de la serie 670 para arriba con el pene.
Y ya algo mas antiguos de 200fps para arriba


tu mismo me estas hablando de 300 fps 400 fps en cada mensaje

Ahora me hablas de 45 fps?

Yo y creo que todo el mundo e incluso nvidia que es la que saca la solucion es para problemas de tearing por encima de la tasa de refresco del monitor ya que sus tarjetas las venden para que tengas muchos fps y no pocos y que luego encima tengas problemas

Sobre lo de hsz interpolados y a riesgo de que me salte otro al cuello , yo creo que eso era antiguamente ahora los hzs interpolados llegan a 600hz 800hz y hay LCD y LED de 100-200 hz reales


Eso es cierto, pero no tiene nada que ver.
Y precisamente yo te he dicho el parrafo que citas respecto al tuyo:

destroyerjjbg escribió:Otra tecnologia a bombo y platillo . Lo mismo me equivoco pero no venden ya TV LCD y LED de 200 mhz (para 3d).? Es raro que un juego vaya a llegar a los 200 fps mas que nada porque siempre los haran mas "cargados" visualmente para que te compres una nueva grafica.


Aclarando que da lo mismo si llegan a o no a 200fps o tienen 200hz los monitores, porque no tiene nada que ver con el tema.
El tearing y el stutering es un tema grave hoy en dia (el tearing no tanto con el vsync) pero que sucede continuamente en los 60fps, y con Vsync off no te lo soluciona tener un monitor de 120hz actual(que los monitores son 120hz reales porque son monitores 3D, 60-60).

Asi que si, te sigo hablando de 45, o de 400, repitiendo lo que estoy diciendo todo el rato, no tiene absolutamente nada que ver.
vamos a ver yo no naci sabiendo, y si de algo me esta sirviendo este rifi rafe es para aprender mira tu por donde ye espero que a los que lo lean tambien.

Siguen diciendo que fps hz no tiene nada que ver nada con nada y pata cual. No se que haces entonces posteando en una noticia sobre el G-SYNC

Sigo diciendo que es un rollo que se han inventado junto con los fabricantes de monitores para sacar cuartos. Si los monitores teles LCD LED , los sacaran con una tasa de refresco HZ, mas adaptable y configurable(a lo mejor hay razones tecnicas que no entiendo) , no habria ningun problema de tearing , stutering(que yo confundi con shutering) ni imput lag ni la concha su madre.Con lo cual podrias

Tu tienes 40 fps en un juego pones tu monitor a 40 hz y de puta madre.

Que cojes 90 fps porque tu tarjeta es la osita pues pones 90 hz en tu monitor y santas pascuas.

El problema es porque los LCD Y LED se han fabricado la gran mayoria a 60 hz fijos a altas resoluciones,todos queremos 1080p(a bajas hay valores de 70-72-75). Ahora con los nuevos en max resolucion a 100hz o 120 Hz o 200 hz.
Si tu en el juego que sea alcanzas 60 100 120 o 200 fps estables o sea lo que tu monitor de p.m eres el dios del mundo no tendras ningun problema.
Ahora bien si tu en el juego alcanzas digamos x fps, para poder no tener ningun problema de todos estos mencionados tendrias que adaptar la frecuencia de refresco de tu tele monitor a un multiplo de ese x y te iria mas rapido en fps que con vsync activado y sin tearing. Con frecuencia en 2x tendrias algo de lag con frencia en 3x un poco mas. La cuestion es que con el triple buffer se soluciona en parte estos problemas de lag.
Pero que pasa si como la mayor parte de las veces x no es multiplo de ninguna de las tasas de refresco del monitor o no es un valor constante?. Pues te has jodido(a no ser que no te moleste o no tengas mucho tearing) y te toca activar el VSYNC. Con lo cual la tarjeta bajara los fps hasta la tasa de refresco de tu monitor-tele, o hasta un multiplo de esta .
Por ej si tienes un monitor de 60 hz como casi todo hijo de vecino te capara el juego a 30fps(20-15-10-5) si vas corto de equipo y frames o a 60fps si tienes un monstruo y vas largo de frames. Pues aqui es donde vuelve el input lag y donde el triple buffer puede ayudar.
Otros problemas del VSYNC , son que el juego caida por debajo de los fps en sincronizacion con el monitor , entonces se pueden dar problemas de rendimiento , en palabras de la wikipedia, que me imagino que es del stutering o creo que es lo mismo que judder(parones,te va como a saltos) del que hablan.
Beneficios del VSYNC, menor consumo de energia,calor y ruido al limitar los frames, aunque tambien para esto los fps se pueden limitar muchas veces en las opciones del juego o en la consola, aunque tendras tearing.


Esisten hibridos com pej virtual vsync, no se a que juegos y en que circustancias se aplican pero me imagino que son muy puntuales y nada confiables.
SI exite la adaptative vsync que se puede configurar en los drivers nvidia
http://www.geforce.com/hardware/technol ... tive-vsync
Estos hibridos te activan el VSYNC cuando tu tarjeta supera en fps los hzs a los que esta tu monitor con lo cual no tendras tearing, y lo desactivan cuando los fps bajan por debajo de los hzs del monitor con lo cual evitas los problemas de stutering e input lag si tuvieras con el VSYNC activado.

Y luego la cuestion de lo del el ojo humano y tal, que se supone que a 30 fps es suficiente para una visualizacion fluida de cualquier escena, pero luego esta la polemica de los que consideran que a mas lo ven mejor e incluso los que afirman que diferencian entre 60fps y 100 fps. Yo recomiendo que siempre que podais cuadrar fps con hz 45 estan bien para curarse en salud y como puede que caigan en las escenas de accion 60 fps es mas que aceptable para cualquier juego para una correcta visualizacion. Ahora el que quiera 200 fps y pueda que quite el VSYNC.



Que no te sale de los cojones activar el VSYNC pues no tendras input lag pero te comes el Tearing con patatas, que por logica sera mas agravado mientras mas fps sobrepases o no llegues a la tasa de refresco de tu tele-monitor

En fin espero esto ayude a aclarar el tema, y espero estar en lo correcto si hay alguien que sepa mas o pueda corregirme que lo haga gracias, pero abstenerse aquellos con el discurso, no es que no tiene nada que ver los hz ni los fps cuando es de lo que trata la noticia

salu2

PD, he ido completando segun iba aprendiendo asi que creo que es un articulo muy interesante para todo el que ande perdido
Depende, muchos monitores (el mio mismo, que es un simple viwesonic de 100€) funcionan a 60hz a resolucion nativa (1080p) pero pueden funcionar a 75hz a menor resolucion.

En un juego los fps no son estables nuncas, a no ser que precisamente bloquees el framerate (o con programas externos, o precisamente con vsync).
Y aun con vsync, si tu sistema no puede aguantar estable el framerate (pongamos que siempre ronda por 65-80, pero eventualmente por X motivo tiene una bajada a 50), el V-sync hace un pedazo de drop a 30fps.

Entre lo que consume el v-sync (aunque tampoco es tanto), y que el vsync no te asegura la estabilidad (tienes que tener margen de sobra) no es la solucion ideal.

Por ejemplo, existen soluciones de Virtual Vsync realmente cojonudas como la de MVP virtu:

http://www.youtube.com/watch?v=hvoMWXPzTlg

Primero echar un ojo al 1:48 (BF3 sin Vsync con un tearing del copon, eso si, a 110+ fps, en un monitor de 60hz).
Luego continua con un Vsync on (y por tanto bloqueado a 60fps)

Y despues con su tecnologia de virtual vsync (aunque mvp virtu requiere tener una grafica integrada con la que cooperar).
En el 2.25 el Vsync virtual, sin nada de tearing a 130fps.

Respecto a lo que mencionas, un monitor de 60hz, no te capa el vsync a 30, te lo capa a 60. El V sync precisamente sincroniza el framerate con la frecuencia de tu monitor.
Si a ti personalmente te funciona a 30, es porque esta dando saltos y tu sistema no puede funcionar a 60 estables por no tener margen por arriba.

Y vamos, con tu resolucion final, deberias ver con buenos ojos esto del G-sync, que precisamente te ofrece Vsync, sin activar el vsync, y solucionando otros problemas como el stuttering.
1.Si tienes razon . Los tft Lcd , a bajas resoluciones los puedes poner a mas hz. No es el grano del asunto.

2.Confundes. No es el monitor el que gestiona el vsync es la tarjeta grafica.
riwer escribió:Respecto a lo que mencionas, un monitor de 60hz, no te capa el vsync a 30, te lo capa a 60. El V sync precisamente sincroniza el framerate con la frecuencia de tu monitor

No se a que te refieres. Si tienes un monitor a 60z y el juego no te llega a los 60 fps el vsync te capa el juego a 30 fps si o si. Luego tendras input lag.

Esas soluciones de virtual vsync, no se a que juegos y en que circustancias se aplican pero me imagino que son muy puntuales y nada confiables.
SI exite la adaptative vsync que se puede configurar en los drivers nvidia
http://www.geforce.com/hardware/technol ... tive-vsync

salu2
MENUDA GILIPOLLEZ saca dinero.

El V-sync te limita el uso de la grafica a la mitad o mas de la mitad en juegos de pocos recursos lo cual consume pocos recursos y dura mas la vida de la grafica. Con este chip la grafica ira a 100% todo el rato y consumira un huevo constantemente y se rompera antes. Muy buena idea NVIDIA, lo que desarrollas para vender mas. Ya por esto me quito la GTX660 y me pillo una AMD Radeon HD 7970 y encima me sobra dinero para otra igual con lo que me costo la 660.

El V-sync aunque la grafica no tenga potencia y no llegue a 60 se limita a 30 Frames y esos 10 -15 Frames extras que lleva sin el V-Sync ya no son consumidos y la grafica no va tan cargada, en juegos como el WOW (en mi caso) se hace de notar, el portatil me aguanta a 20-30 Frames a 65-70ºC pero sin el V-sync sube a 80ºC y el teclado arde y es dificil jugar. (me quemo las manos) En caso de la torre con la GTX660 sube por alli de 70 - 90 frames en la mayoria de juegos como BF3 en ULTRA y la grafica va a tope e incluso con OC del 20% junto a la CPU que lleva turbo activo, con el V-Sync tanto el uso de CPU como GPU se reduce a un 60 -70 % de su uso. La GPU pasa de 1300Mhz a solo 800MHz, y la CPU de 3.8GHz Turbo a 3.2GHz o menos.
mmiiqquueell escribió:MENUDA GILIPOLLEZ saca dinero.

El V-sync te limita el uso de la grafica a la mitad o mas de la mitad en juegos de pocos recursos lo cual consume pocos recursos y dura mas la vida de la grafica. Con este chip la grafica ira a 100% todo el rato y consumira un huevo constantemente y se rompera antes. Muy buena idea NVIDIA, lo que desarrollas para vender mas. Ya por esto me quito la GTX660 y me pillo una AMD Radeon HD 7970 y encima me sobra dinero para otra igual con lo que me costo la 660.

El V-sync aunque la grafica no tenga potencia y no llegue a 60 se limita a 30 Frames y esos 10 -15 Frames extras que lleva sin el V-Sync ya no son consumidos y la grafica no va tan cargada, en juegos como el WOW (en mi caso) se hace de notar, el portatil me aguanta a 20-30 Frames a 65-70ºC pero sin el V-sync sube a 80ºC y el teclado arde y es dificil jugar. (me quemo las manos) En caso de la torre con la GTX660 sube por alli de 70 - 90 frames en la mayoria de juegos como BF3 en ULTRA y la grafica va a tope e incluso con OC del 20% junto a la CPU que lleva turbo activo, con el V-Sync tanto el uso de CPU como GPU se reduce a un 60 -70 % de su uso. La GPU pasa de 1300Mhz a solo 800MHz, y la CPU de 3.8GHz Turbo a 3.2GHz o menos.


aun estando de acuerdo que para muchos despistados sera un quema tarjetas, con los juegos de menos recursos siempre podras activar el vsync, en aquellos que se dignen a implementar la opcion o la de capar fps , o mientras nvidia siga metiendo la opcion en sus drivers.

salu2
mmiiqquueell escribió:MENUDA GILIPOLLEZ saca dinero.

El V-sync te limita el uso de la grafica a la mitad o mas de la mitad en juegos de pocos recursos lo cual consume pocos recursos y dura mas la vida de la grafica. Con este chip la grafica ira a 100% todo el rato y consumira un huevo constantemente y se rompera antes. Muy buena idea NVIDIA, lo que desarrollas para vender mas. Ya por esto me quito la GTX660 y me pillo una AMD Radeon HD 7970 y encima me sobra dinero para otra igual con lo que me costo la 660.

El V-sync aunque la grafica no tenga potencia y no llegue a 60 se limita a 30 Frames y esos 10 -15 Frames extras que lleva sin el V-Sync ya no son consumidos y la grafica no va tan cargada, en juegos como el WOW (en mi caso) se hace de notar, el portatil me aguanta a 20-30 Frames a 65-70ºC pero sin el V-sync sube a 80ºC y el teclado arde y es dificil jugar. (me quemo las manos) En caso de la torre con la GTX660 sube por alli de 70 - 90 frames en la mayoria de juegos como BF3 en ULTRA y la grafica va a tope e incluso con OC del 20% junto a la CPU que lleva turbo activo, con el V-Sync tanto el uso de CPU como GPU se reduce a un 60 -70 % de su uso. La GPU pasa de 1300Mhz a solo 800MHz, y la CPU de 3.8GHz Turbo a 3.2GHz o menos.


Pero como se va a calentar más la gráfica si solo tiene que procesar los fps que soporte el monitor? Además el chip le restará el trabajo correspondiente al Vsync. Por cierto si tu gráfica se calienta tanto (80C no es peligroso) sin Vsync, ponte un limitador de fps o mejora la refrigeración de tu PC.

Por favor, antes de comentar en hilo instalaros un juego con el motor source, activar el vsync y mover el ratón un par de vueltas, ahora volved a hacer lo mismo con el vsync desactivado, si no notáis diferencia, en lo que input lag se refiere, no comentéis en el hilo (y compraros una consola :p [uzi] [toctoc] )
DJ_nacho escribió:Pero como se va a calentar más la gráfica si solo tiene que procesar los fps que soporte el monitor?


Precisamente por eso amigu nacho. Ahora te puedes comprar monitores de 120 - 140 y mas hz.
Imaginate un juego de ultima generacion corriendo a 120 fps todo el rato. Gasto de luz, calor para la tarjeta y el equipo y menos vida util. Si no esta bien refrigerado tarjeta de pisapapeles.

A lo del input lag no se a que refieres. Si los monitores los vendieran con mas rango de configuracion en cuanto a hz, solo tendrias que bajar los fps hasta un valor estable y configurar tu monitor en ese valor y ni gsync ni mierdas pa NVIDIA y los fabricantes de monitores.


salu2
Ya me contará alguien qué diablos quieren demostrar con ese vídeo... no se nota NADA
destroyerjjbg escribió:
DJ_nacho escribió:Pero como se va a calentar más la gráfica si solo tiene que procesar los fps que soporte el monitor?


Precisamente por eso amigu nacho. Ahora te puedes comprar monitores de 120 - 140 y mas hz.
Imaginate un juego de ultima generacion corriendo a 120 fps todo el rato. Gasto de luz, calor para la tarjeta y el equipo y menos vida util. Si no esta bien refrigerado tarjeta de pisapapeles.

A lo segundo , tu sigue jugando a consolas a 29 fps si es que llegas en 720p que yo seguire a 60 fps seguros en pc [poraki]

salu2


Pueds ver mi PC en mi perfil de Steam. Tengo un monitor de 120 Hz y un sli de 570, y bien sea jugando en 3D a 60 fps o en 2D a 120 fps, casi siempre están al 100% de uso y se mantienen en unos 87-90C (al 100% de uso y con OC). En serio me considero una persona muy sensible para estos temas de la fluidez y llevo informando años sobre input lag y vsync, y algunas respuestas de este hilo son ridículas... Sabes que por ejemplo activando el Vsync y limitando los fps a 59 (o 119 en 120hz), desaparece el input lag a costa de un mínimo tearing.

EDITO: El input lag es el retraso desde que tu mueves el ratón (o activas cualquier otro periférico) hasta que ese movimiento se reproduce en el monitor, depende de muchas cosas (Famoso tiempo de respuesta de los monitores o frecuencia de los periféricos), pero al activar el Vsync se produce un aumento de este input lag muy considerable. Lo que se pretende con este cacharro es eliminar la parte de ese input lag creada por la gráfica al sincronizarse con la frecuencia de actualizacion del monitor, disminuyendo así considerablemente el tiempo de respuesta (input lag) de nuestros periféricos. Decir también que si jugamos sin Vsync, el input lag desaparece, pero aparece el tearing al no estar sincronizada la velocidad de actualización del monitor con la de la gráfica.
destroyerjjbg escribió:1.Si tienes razon . Los tft Lcd , a bajas resoluciones los puedes poner a mas hz. No es el grano del asunto.

2.Confundes. No es el monitor el que gestiona el vsync es la tarjeta grafica.
riwer escribió:Respecto a lo que mencionas, un monitor de 60hz, no te capa el vsync a 30, te lo capa a 60. El V sync precisamente sincroniza el framerate con la frecuencia de tu monitor

No se a que te refieres. Si tienes un monitor a 60z y el juego no te llega a los 60 fps el vsync te capa el juego a 30 fps si o si. Luego tendras input lag.

Esas soluciones de virtual vsync, no se a que juegos y en que circustancias se aplican pero me imagino que son muy puntuales y nada confiables.
SI exite la adaptative vsync que se puede configurar en los drivers nvidia
http://www.geforce.com/hardware/technol ... tive-vsync

salu2


Claro claro, "si no te llega", pero si te llega (te pasa) 60fps con Vsync los tienes en un monitor de 60hz.
Y me explique mal por lo que veo, lo que queria decir es que teniendo un monitor a 60hz, la grafica no te pone el juego a 30fps con vsync, sino que lo hace a 60, "y si no puede mantenerlo" a 30.

El resto de los problemas que mencionais se solucionan limitando manualmente los fps.
Para nacho , a la primera entendi que defendias las consolas. Luego lo edite y te conteste a lo del input lag
destroyerjjbg escribió:A lo del input lag no se a que refieres. Si los monitores los vendieran con mas rango de configuracion en cuanto a hz, solo tendrias que bajar los fps hasta un valor estable y configurar tu monitor en ese valor y ni gsync ni mierdas pa NVIDIA y los fabricantes de monitores.

dj_nacho escribió:Sabes que por ejemplo activando el Vsync y limitando los fps a 59 (o 119 en 120hz), desaparece el input lag a costa de un mínimo tearing.


Hay muchas cosas que no se, pero si que he leido cuando me estaba documentando que el input lag desaparece casi usando triple buffer cuando tienes el VSYNC on. Ahora si me preguntas si lo he probado pues la verdad es que no y tambien puede ser que no todos los juegos te dejen activar el triple buffer.
De todas formas ese truquillo nunca esta mal tb en el caso de juegos que te permitan capar los fps. Tendre que probarlo cuando me encuentre con problemas de input lag que ya te digo a dia de hoy no se si sabre detectar.
dj_nacho escribió:Pueds ver mi PC en mi perfil de Steam. Tengo un monitor de 120 Hz y un sli de 570, y bien sea jugando en 3D a 60 fps o en 2D a 120 fps, casi siempre están al 100% de uso y se mantienen en unos 87-90C (al 100% de uso y con OC


Tu mismo dices que tienes un monitor de 120hz imaginate uno de 140 - 160 - 200 hz.
Si lo tienes en 90 que esta dentro de lo muy normal(supongo que tendras buena refrigeracion) imaginate un incremento del 20 por cien en 140 hz - fps y del 80 por cien en 200 hz. Estariamos hablando de de entre 50-60 grados mas en un monitor de 200 hz.
Por eso comentaba que a algun despistado se le quemara la tarjeta. De todas formas no creo que ni NVDIA ni los usuarios sean tan torpes o dejados para freir tarjetas- equipos y no prevenirlo

Por otro lado me mola tu equipo. Me gustaria probar el 3d, me tengo que comprar un equipo nuevo dentro de poco. Merece la pena y hay bastantes juegos?

salu2



Para riwer, creo que entendiste mal y como siempre intentas tener la ultima palabra, yo desde que has espetado un par de veces que fps y hz no tienen que ver nada con la noticia perdona pero no tengo en cuenta ninguna de tus opiniones

salu2
El triple buffer no vale para casi nada, te lo aseguro. Te estás haciendo la picha un lio con fps y temperatura, mis gráficas con los juegos más punteros y en estas condiciones que te comento suelen estar al 100% de uso mucho rato seguido, pero la temperatura será la misma, de 70, que 120 fps, ya que las gráficas van al tope. Es decir, alguien que requiera más framerate, con un equipo como el mio obtendría temperaturas similares a las mias. Los fps los puedes capar con muchos programas, con evga precision, fraps, dxtory.... Y el 3D claro que merece la pena, para mi es el futuro, y con este cacharro se elimina el input lag en 3D, ya que es imprescindible la sincronía vertical activada.
jode, no me gusta estar corrigiendo aqui a todo el mundo como si fuera el maestro liendre, pero que digas que a mas fps igual temperatura, estas echando abajo la base de cualquier programa de stress de tarjetas graficas y en general de cualquier componente de un pc. A mas carga de trabajo mas temperatura

Puede ser que como tu dices tengas capados los juegos a esos fps y por tanto nunca te sube de esa temperatura capada o que tu sistema SLI funciene de sobrado subiendole los fps y esa temperatura sea la normal de trabajo. Prueba con programa de stress de tarjetas y luego me cuentas.

Tengo que catar lo del 3d. Por cierto que caja es la que tienes, mola cacho

salu2
A ver cuando te digo que las gráficas van al 100% es eso mismo, esto es lo que hacen los programas de benchmark...

La caja es una nzxt phantom :)
bueno no quiero seguir discutiendo [buenazo]

gracias por lo de la caja

salu2
alfax está baneado por "troll"
yo no noto nada. No obstante qué es el tearing ? alguna imagen que muestre ese tal defecto ?
destroyerjjbg escribió:bueno no quiero seguir discutiendo [buenazo]

gracias por lo de la caja

salu2


No es cuestión de discutir, cuando la gráfica se encuentra al 100% de uso, alcanza su máxima temperatura, da igual si el software corriendo rinde con 10 o 10000 fps.
Jode lo que os gusta discutir.... Deberíais saber que todo lo que no sea comentar el post original es trolear. Todos tienen derecho a dar su opinión aunque no tengan ni idea. La verdad resulta evidente para terceros sin tener que gastar post y post en batallas de ego.

Este chacharrito sirve para que cuando le des al ctrl+r en el wow (por ejemplo) tengas 120fps y sincronía vertical y así fardar más. Imagino que el gsync será un framebuffer en el monitor, limitado únicamente por el standard del DP... a 1080p unos 120hz.

Y es una MENTIRA como un castillo eso de que el vsync consume recursos. Publicidad engañosa, solo los capa en lugar de desecharlos. Evidentemente 60fps con Vsync van a consumir algo mas (flops) que 60fps sin vsync. Claro, que al que se ha gastado 2000e en un pc porque le sobra la pasta y se ha ido al pc city a comprarse "lo mas burro", creerá que pasar de 170fps a 60fps por activar el Vsync es porque pesa mucho.

Lo del input lag... en fin más publicidad chorra. Si tienes un monstruo montado de PC, en el que buscas minimizar el input lag y por lo tanto eres un potencial comprador de esta tecnologia, vas a pasar de tener una perdida de 1/60 frames en un segundo, (16ms) a 1/120 fps (8ms). Si tu monitor (de gamer) mete 2ms en electronica, sigue estando muy por debajo del umbral de percepción de 50ms para una actividad entrenada (20ms para los muy profesionales, no creo que para una actividad como los videojuegos se llegue a eso)

Por otro lado, lo de los 60fps es a los 24fps como lo del 1-100Khz a los 20-20kHz en la música. Hay gente que de verdad los percibe (aun hay discusión) pero la gran mayoría solo dice que lo percibe. Antes, con los CRT tenia más sentido el paso de los 50Hz a los 100Hz, al fin y al cabo daba una imagen más constante, pero en un LCD no tiene ningún sentido, más que la mera publicidad (y los que tienen ojos de biónicos).

Conclusión, que garanticen yo que sé, 50fps constantes y sincronizados con monitores de 50Hz, en resolución nativa y todos contentos. Que pasará por hacer buenos drivers y soportes para los motores gráficos en vez de tanta pollada para early-buyer.

Salud!

PD: Jeje, la verdad que con la cantidad de ejemplos de tearing que hay, han puesto uno que no se ve!.

PD2: para evitarme el ataque del trol, los fps salen de la grafica y los Hz salen del monitor y pido disculpas por los errores que haya cometido que no se atengan a esta regla
Cavalier escribió:Jode lo que os gusta discutir.... Deberíais saber que todo lo que no sea comentar el post original es trolear. Todos tienen derecho a dar su opinión aunque no tengan ni idea. La verdad resulta evidente para terceros sin tener que gastar post y post en batallas de ego.

Este chacharrito sirve para que cuando le des al ctrl+r en el wow (por ejemplo) tengas 120fps y sincronía vertical y así fardar más. Imagino que el gsync será un framebuffer en el monitor, limitado únicamente por el standard del DP... a 1080p unos 120hz.

Y es una MENTIRA como un castillo eso de que el vsync consume recursos. Publicidad engañosa, solo los capa en lugar de desecharlos. Evidentemente 60fps con Vsync van a consumir algo mas (flops) que 60fps sin vsync. Claro, que al que se ha gastado 2000e en un pc porque le sobra la pasta y se ha ido al pc city a comprarse "lo mas burro", creerá que pasar de 170fps a 60fps por activar el Vsync es porque pesa mucho.

Lo del input lag... en fin más publicidad chorra. Si tienes un monstruo montado de PC, en el que buscas minimizar el input lag y por lo tanto eres un potencial comprador de esta tecnologia, vas a pasar de tener una perdida de 1/60 frames en un segundo, (16ms) a 1/120 fps (8ms). Si tu monitor (de gamer) mete 2ms en electronica, sigue estando muy por debajo del umbral de percepción de 50ms para una actividad entrenada (20ms para los muy profesionales, no creo que para una actividad como los videojuegos se llegue a eso)

Por otro lado, lo de los 60fps es a los 24fps como lo del 1-100Khz a los 20-20kHz en la música. Hay gente que de verdad los percibe (aun hay discusión) pero la gran mayoría solo dice que lo percibe. Antes, con los CRT tenia más sentido el paso de los 50Hz a los 100Hz, al fin y al cabo daba una imagen más constante, pero en un LCD no tiene ningún sentido, más que la mera publicidad (y los que tienen ojos de biónicos).

Conclusión, que garanticen yo que sé, 50fps constantes y sincronizados con monitores de 50Hz, en resolución nativa y todos contentos. Que pasará por hacer buenos drivers y soportes para los motores gráficos en vez de tanta pollada para early-buyer.

Salud!

PD: Jeje, la verdad que con la cantidad de ejemplos de tearing que hay, han puesto uno que no se ve!.

PD2: para evitarme el ataque del trol, los fps salen de la grafica y los Hz salen del monitor y pido disculpas por los errores que haya cometido que no se atengan a esta regla


Estas resumiendo TODO el retardo al creado únicamente por el monitor... En serio informaros del input lag por foros americanos y veréis, los foros de steam mismamente están llenos de temas al respecto.
Dj_Nacho escribió:
destroyerjjbg escribió:bueno no quiero seguir discutiendo [buenazo]

gracias por lo de la caja

salu2


No es cuestión de discutir, cuando la gráfica se encuentra al 100% de uso, alcanza su máxima temperatura, da igual si el software corriendo rinde con 10 o 10000 fps.


yo lo unico que veo que te gusta discutir y no disciernes lo que dices. [360º] Quizas en algunos juegos de poca carga grafica mas fps no signifiquen mas temperatura porque no fuerzan la tarjeta , pero en general en cualquier juego exigente, mas fps mas carga mas temperatura por eso te decia que probaras con un programa de stress de tarjetas graficas

salu2
Una gráfica alcanza su máxima temperatura cuando esta al 100% de uso, tenga como salida 1 fps o 10000. No creo que sea tan difícil de entender...
Dj_Nacho escribió:Estas resumiendo TODO el retardo al creado únicamente por el monitor... En serio informaros del input lag por foros americanos y veréis, los foros de steam mismamente están llenos de temas al respecto.


Claro. ¿Dónde te crees que va este cacharro?. ¿Qué crees que es el input lag?

Como veo que sabes americano te pongo un enlace americano. Ojo, no es de un foro americano.
http://en.wikipedia.org/wiki/Input_lag
futuro mad max escribió:
Dorigon escribió:No noto la diferencia...


Los videos estan capados a menos de 30FPS y la diferencia se nota menos de lo que es realmente, el de la izquierda cuando gira la pantalla es mucho menos fluido que el de la derecha y de nota bastante, el de la izquierda parece que incluso funcione a saltos entre fotogramas

Lo mas impresionante es que han conseguido esa fluidez (cuando un video de youtube no muestra mas de 30fps), en realidad lo que hace es sincronizar lo que envia la grafica con lo que muestra la pantalla

Los que no son capaces de notar si un juego funciona a 10 o 30fps, o mas, no creo que noten nada la verdad XD XD

ahora solo falta que inventen uno que elimine los dientes de sierra y el framerate inestable


gracias a este sistema no haria falta usar vsync y el ahorro serviria para tener mas framerate


Tienes ojo biónico, macho, porque yo no he notado nada. Lo gracioso es que se pasan dándole vueltas al de la izquierda como tres minutos. Cuando pasan al otro, cual es mi sorpresa cuando lo veo petardear igual (y ya me he sorprendido notando que no lleva una tasa de frames altas) y la diferencia es nula para mi ojo orgánico, pero es que encima apenas se muestra diez segundos... :-|
don pelayo escribió:
futuro mad max escribió:
Dorigon escribió:No noto la diferencia...


Los videos estan capados a menos de 30FPS y la diferencia se nota menos de lo que es realmente, el de la izquierda cuando gira la pantalla es mucho menos fluido que el de la derecha y de nota bastante, el de la izquierda parece que incluso funcione a saltos entre fotogramas

Lo mas impresionante es que han conseguido esa fluidez (cuando un video de youtube no muestra mas de 30fps), en realidad lo que hace es sincronizar lo que envia la grafica con lo que muestra la pantalla

Los que no son capaces de notar si un juego funciona a 10 o 30fps, o mas, no creo que noten nada la verdad XD XD

ahora solo falta que inventen uno que elimine los dientes de sierra y el framerate inestable


gracias a este sistema no haria falta usar vsync y el ahorro serviria para tener mas framerate


Tienes ojo biónico, macho, porque yo no he notado nada. Lo gracioso es que se pasan dándole vueltas al de la izquierda como tres minutos. Cuando pasan al otro, cual es mi sorpresa cuando lo veo petardear igual (y ya me he sorprendido notando que no lleva una tasa de frames altas) y la diferencia es nula para mi ojo orgánico, pero es que encima apenas se muestra diez segundos... :-|




Los 2 videos tienen bajadas de framerate, pero el de la izquierda parece un baile de dipositivas, has sido capaz de notar eso, solo una pequeña proporcion de la poblacion lo hace
futuro mad max escribió:100€ para evitar usar vsync, sin parpadeos, ni movimientos de imagen bruscos, para alguien con una grafica de 30€ no le interesa, para un gamer si


Je jeee... si tú supieras el sistema que tengo montado... [plas]

Salu2. :cool:
Cavalier escribió:
Dj_Nacho escribió:Estas resumiendo TODO el retardo al creado únicamente por el monitor... En serio informaros del input lag por forosde e la grafica americanos y veréis, los foros de steam mismamente están llenos de temas al respecto.


Claro. ¿Dónde te crees que va este cacharro?. ¿Qué crees que es el input lag?

Como veo que sabes americano te pongo un enlace americano. Ojo, no es de un foro americano.
http://en.wikipedia.org/wiki/Input_lag



Entre la gráfica y en monitor? Tu te refieres solamente al input lag que genera el monitor, es decir, lo que tarda en mostrar un un fps que le llega de la grafica. El input lag es la suma total de el retardo que produce el moitor, controlador, grafica... En ese enlace que señalas lo pone claro.

Este aparato elimina el input lag que genera la gráfica , al procesar el lo relacionado conla ssincronía. No lo digo yo, lo dice la página de NVIDIA.
Vaya belignorancia, macho... Tenemos la España que nos merecemos.

Tu compra, compra... que con el cacharro ese vas a matar el triple, a ganar 3000 euros al mes y se te van a poner los abdominales como piedras.

En fin, me rindo. Es cierto, debe ser que no entiendo la ciencia cuantica n-dimensional que está detrás de como se pinta un frame en un monitor.
Pero si es que en en enlace que pasas pone justo lo que digo yo...

The potential causes for "input lag"- according to the second definition- are described below (steps which have negligible contributions to the input lag have been omitted). Each step in the process increases "input lag", however the net result may be unnoticeable if the overall "input lag" is low enough.
Hola dj_nacho,

Deberías no sólo leer el principio. Deberías leerlo todo e intentar entenderlo. Pensé que al hacerte las dos preguntas, dónde va y que es el input lag, darías con la respuesta, pero ya veo que sigues pensando en que una mística oscura apta sólo para unos cuantos y que tu sólo alcanzas al vislumbrar, rodea todo el proceso informático. Pero no es así, es una cosa muy tonta y sobre todo, lógica

En resumidas cuentas, la imagen, hasta llegar al framebuffer, depende de la velocidad de tu máquina. A más potencia menos tarda la imagen desde clickeas en el ratón, hasta que llega al framebuffer. Hay muchos factores fijos, el retraso del ratón, la latencia de la ram, tal vez la sincronia con el audio,pero son casi despreciables. Evidentemente, unos pocos juntos hacen mucho, pero bueno, al fin y al cabo el procesador (de 3ghz pej) puede establecer finales de carrera con una precisión (teorica) de 0,3pSeg. Para que te hagas una idea de qué es un picosegundo, es el tiempo que pasa desde que se ponen las luces del semáforo en verde hasta que te pita el de atrás.

Hasta este punto, el monitor no tiene culpa de nada, lo único que hace es un pull del frame buffer cuando acaba de pintar su cuadro. No afecta a ese proceso. Como si sigue en la caja.

Desgraciadamente, una vez llegamos al framebuffer, el monitor sí que entra en la ecuación. Puede crear efectos como el Tearing, si mientras se está descargando el frame del framebuffer el pc lo cambia a la mitad, haciendo ese rasgón o "tearing" en la imagen. Para evitar esto, se activa el vsync (o sincronia vertical, no virtual como he leído por ahí), que no cambia el frame buffer hasta que el monitor ha acabado con el refresco vertical.

Pero claro, si activamos el vsync del frame buffer, tendremos input lag, ya que tiene que acabar de pintar el frame y descargar el siguiente. A 60Hz, tendremos un input lag "natural" de hasta 16ms. La solución que estos proponen, es que se utilice el ancho de banda del DP en lugar del refresco vertical para reducirlo, que a 1080p son unos 120Hz, que dejaría el input lag a 8ms si tu máquina es capaz de dar esos 120fps.

Además la electrónca del monitor tiene su propio input lag, pero en un monitor de gamer está en torno a los 2-10 ms sumando la velocidad G2G... generalmente en monitores TN.

Y una reducción máxima de 8ms en determinadas situaciones me parece que es ridícula.

También hablas de que elimina el input lag. De eso nada, he releído con ahínco la noticia de nvidia y por supuesto, en ningún momento habla de eliminar el input lag, tan solo de eliminar el tearing de la misma forma que hace el vsync.

Y otras barrabasadas que habéis soltado acerca de la temperatura. No sé que tiene que ver con esto, tu quitale el ventilador a tu gtx570 y dejala con el escritorio de windows... ya verás como con un 5% de carga de la tarjeta se calienta a tope. Y si de manera velada estáis hablando del consumo, en fin, creo que con la explicación que he puesto se puede dilucidar que todo el sistema trabaja a tope o no trabaja. Evidentemente, el vsync consumirá recursos, pongamos un maximo de un 10%, que a 60fps es como si trabajase a 66fps... me parece un ahorro frente a los 170fps que a veces da (daba) mi tarjeta

En fin. me reafirmo en mi primer post y digo que esta tecnología es una gilipollez. Que establezcan buenas relaciones y soportes con los desarrolladores de motores gráficos y que dejen el vsync que hace el apaño perfectamente. Que se preocupen más de las bajadas de frames y menos del input lag.

Y me jode, me jode mucho que un usuario como tu, que ya lleva unos años en este maravilloso foro al que tanto debemos, con tanto buen experto, se dedique a defender supercherias y a no ser riguroso.
Pero vamos a ver, eso que comentas es el input las que genera únicamente el monitor. De sincronizar los fotogramas se encarga la gráfica. Y el input las que tu percibes el la suma de todos los retardos, no sólo el creado por el monitor. El monitor tardara lo mismo en mostrar el frame tenga svsync activado o no. El retraso que aparece al activar el vsync corresponde a la gráfica. Relee el enlace por favor, pone esto exactamente.

A lo de la gráfica ni voy a contestar, menudos chorrada de argumentos. No em digas que no soy riguroso y aprende inglés, en el enlace que me pasas pone justamente lo que yo digo, que no me lo invento :)
Es verdad, tienes toda la razón, es magia.

Sigue con tu alerón en el coche para mejorar el agarre en las curvas, sigue con tus cables desoxigenados para tu minicadena y comprando HDMIs con el conector de oro para que se vea mejor.

Claro que si, viva España!
En fin amigo, trato de comentarte mi experiencia sobre un tema del que pienso que tengo bastante que aportar y me acabas echándome la culpa del panorama español que vivimos....

EDITO:
Por cierto mira lo que pone en la página de nvidia, pero en la portada además, no tienesni que entrar en la noticia:

NVIDIA G-SYNC monitors feature revolutionary NVIDIA technology that eliminates screen tearing and VSync input lag, and enhances the capabilities of existing monitor panels, resulting in the smoothest, fastest, most responsive gaming experience ever seen.
Read more >


WWW.geforce.com
Ah, muy bien. 1000€ por una gráfica nVidia de última generación y 500€ más por un monitor con esta tecnología ... total, ¡me sobra el dinero! [reojillo]

En fin ...
Odio todos esos defectos que G-Sync promete eliminar. De hecho, he llegado a descartar jugar a algunos juegos por esos defectos. Si Nvidia cumple con lo prometido pienso que estamos ante la mejor noticia para los gamers de PC en muchos años.
Lo que de verdad esta muy bien q aparte de eliminar el tearing, elimine por completo el inputlag, para mi algo a tener muy en cuenta ademas de liberar carga de gpu por el v-sync desactivado. Le echare un ojo que el año que viene toca cambiar de monitor [sonrisa]
No entiendo mucho.

Un gamer ya tiene una gráfica que le arregla todos esos defectos.
Alguien que no es un gamer no necesita uno de estos monitores porque aunque el monitor corrija esos defectos no tendra potencia suficiente para mover el juego a mas de 15 frames.
yoyo1one está baneado por "Faltas de respeto continuadas - The End"
Para los putillas gráficas debe ser obligado comprarlo [+risas]
Si realmente evita el input lag y la bajada de FPS que crea el vsync normal será un gran avance que debería haberse hecho ya hace muchos años. Parece que sólo Nvidia estudia mejorar desde hace tiempo este tema, prueba de ello es el adaptative vsync que se lo sacó nvidia de la manga y algo mejoraba al vsync normal. AMD/ATI parece que pasa de todos estos temas, espero que también se suban al carro y así podamos elegir en función del rendimiento/precio y no de características exclusivas de una o otra marca.
93 respuestas
1, 2