Nvidia presenta G-Sync, un modulo para el monitor que elimina el tearing

Nvidia ha desarrollado una nueva tecnología para mejorar el rendimiento visual en los vídeojuegos: G-Sync. G-Sync es un modulo para monitores que "aporta grandes beneficios a los jugadores", según informa la compañía en su blog oficial.

G-Sync está diseñado para salvar los problemas gráficos que causa la pérdida de sincronía entre el refresco de la pantalla y los frames que ofrece la tarjeta gráfica. Este problema se puede salvar activando la sincronización vertical o V-Sync, pero esta opción puede afectar al rendimiento gráfico causando latencia y stuttering.

G-Sync sincroniza la tasa de actualización de la pantalla a la tasa de render de la GPU, para que las imágenes sean mostradas en el momento que son procesadas. Según comenta Jeff Fisher, vice presidente de negocios de GeForce en Nvidia, "Una vez que juegues en un monitor con G-Sync no volverás atrás”.

El modulo puede ser instalado en un monitor existente o venir integrado, y para funcionar será necesario tener una tarjeta gráfica basada en la tecnología Kepler, una GTX 650 Ti Boost o superior.

Nvidia enviará los primeros módulos a modders profesionales a finales de año, mientras que fabricantes como ASUS, BenQ, Philips y ViewSonic esperan lanzar sus primeros monitores con G-Sync integrado para inicios del 2014. El precio de estos monitores será superior al de su versión estándar.

A continuación tenéis un vídeo grabando cámara en mano, donde se puede apreciar la diferencia que existe entre un monitor con G-Sync y otro sin.

Mas vale tarde que nunca, pero vamos esto se podia haber solucionado hace muuucho.
No noto la diferencia...
Phellan_Wolf escribió:Mas vale tarde que nunca, pero vamos esto se podia haber solucionado hace muuucho.


tienes toda la razon... es increible que en 2013.. casi 2014 todavia no se hay solucionado este tema.... solo se preocupan de sacar monitores y monitores .. sin pensar el fin que se le va a dar xD
Debería funcionar con cualquier gpu,no solo con las mas caras.
kai_dranzer20 está baneado por "Game Over"
más gasto para jugar en pc ¬¬
Pues te pones una TITAN con vsync y a correr .. y te va mejor. Ni chips ni leches.
kai_dranzer20 escribió:más gasto para jugar en pc ¬¬


Comprad consola...
Dorigon escribió:No noto la diferencia...



+1 xD si se movieran las dos a la vez alomejor pero asi como esta el video y captado con una camara no noto absolutamente nada
Me gusta la idea, no tendrías que preocuparte jamas del tearing que lo ODIO, cuando tienes potencia de sobra no hay problema, V-Sync 60fps estables y ya esta, pero cuando rondas los 45-50 con picos mas altos poner V-sync a veces da menos rendimiento

Pero esto tiene un problema gordo, si solo es para las Nvidia y ademas solo de la 650Ti Boost en adelante...pocos monitores se atreverán a ponerlo, por lo que serán muy caros, por lo que se venderán aun menos y así indefinidamente, y eso de ponérselo a un monitor acoplado como un modulo...¿como? si no viene el monitor preparado con un puerto para el modulo difícil lo veo
Esto quiere decir que si un juego me funciona a 30 fps mi pantalla solo ira a 30 Hz, pq menuda cagada si fuera eso.. ¿Alguien me explica como funciona exactamente?
Yo siempre juego con vsync y jamás me ha provocado lag, y mucho menos tearing, que es precisamente lo que elimina. ¬_¬
Maverik 2 escribió:Esto quiere decir que si un juego me funciona a 30 fps mi pantalla solo ira a 30 Hz, pq menuda cagada si fuera eso.. ¿Alguien me explica como funciona exactamente?

Claro, es que todos sabemos que si tu pantalla se actualiza 60 veces por segundo cuando tu gráfica solo está emitiendo 30 imágenes por segundo, se nota más fluidez, claro, se inventa los frames intermedios. Ah no, muestra frames incompletos, también conocido como TEARING, que es lo que va a eliminar esto, y que es terrible xD
Imagen
La verdad que no se aprecia la diferencia ya sea por el vídeo o por que la mejora es casi minima aun asi no puedo opinar mucho ya que el tema lo llevo con pinzas
WiiBoy escribió:
Dorigon escribió:No noto la diferencia...



+1 xD si se movieran las dos a la vez alomejor pero asi como esta el video y captado con una camara no noto absolutamente nada


Ni yo tampoco la verdad, pero vamos, pocas veces anda uno por debajo de los 60, de hecho uso el vsync para tener la grafica mas fresquita y evitar renderizado de mas, y el tema del tearing tampoco es tan importante como para andar con estas cosas.
ZMAZHER escribió:
kai_dranzer20 escribió:más gasto para jugar en pc ¬¬


Comprad consola...


En consola es peor, el tearing es casi constante y con unos dientes de sierra para cortar huesos de jamon de tres en tres.

Tras el gran aporte del dlc, logros, pases de temporada y pago por jugar online de las consolas mi paseo paralelo del pc tiene visos de convertirse en exclusivo para los años venideros, encantado de ser un jugador de PC y muy satisfecho.
Francamente, sigo sin ver la diferencia.
Esto lo que hace es sincronizar la frecuencia de actualización de fotogramas de la gráfica con los del monitor sin ser necesario activar el Vsync, y evitando así el input lag que tener activado el Vsync provoca. Es decir podremos jugar sin tearing y sin input lag, algo que los jugadores de PC llevamos pidiendo años... Esto pinta muy bien.
Si esto significa que con gamas más bajas mejora el rendimiento o al menos el como se ve bienvenido. Pero vamos, que como dicen por ahí seguro que cuesta más que la diferencia de comprar una gráfica con gama más alta que no lo necesite.
Me parece que esto es algo que tenía que haberse hecho hace mucho tiempo y realmente creo que es una buena noticia, pero eso sí, habrá que ver el precio, porque conociendo a los señores de Nvidia no creo que sea barato.
ahora solo falta que inventen uno que elimine los dientes de sierra y el framerate inestable
A mí me parece un producto interesante. Recordemos que el VSync chupa bastantes recursos de la gráfica. Está por ver si el monitor serviría para gráficas de otros fabricantes, de no ser así, se comerán un cagao
Gaiden escribió:Yo siempre juego con vsync y jamás me ha provocado lag, y mucho menos tearing, que es precisamente lo que elimina. ¬_¬


Exacto,pero el vsync limita el rendimiento de la GPU para poder sincronizar,se supone que esto hace lo mismo pero sin limitar el rendimiento.

Que lo metan en las graficas y ya esta,aun asi esto se podria solucionar de distintas maneras...,no sacando un chip aparte por dios... [carcajad]

Habria estado bien que valiese para cualquier grafica o una compatibilidad de graficas mas elevadas.

Es mi opinion,saludos.
Esta muy bien y hasta me voy a esperar para pillarme un monitor en 2014, el problema es que es de Nvidia y te obliga a tener GForce e iría por DisplayPort.

Esta confirmado por Asus que va a sacar su kit de modificación para su monitor gaming VG248QE (toma 20 mins el montarlo y costaría -100$-), del resto de monitores como el BenQ XL2420T/XL2411T no hay nada sobre ello por ahora.

Los primeros monitores montando G-SYNC salen en el primer trimestre de 2014. El ASUS VG248QE con G-SYNC preinstalado costara -399$-

El aparato:
Imagen


*Mas datos:

Imagen


"MONTREAL—18 de octubre de 2013—Tras décadas sufriendo imágenes fragmentadas, secuencias entrecortadas y latencias en los juegos, NVIDIA resuelve por fin el problema con la tecnología G-SYNC™, que, por primera vez, proporciona perfecta sincronización entre la GPU y la pantalla.

El resultado es una suavidad de imagen sin precedentes, con frecuencias de cuadro homogéneas y una velocidad respuesta ultrarrápida que era imposible conseguir con las tecnologías de pantalla existentes hasta ahora.

La tecnología G-SYNC, a la que NVIDIA ha dedicado años de desarrollo, sincroniza la frecuencia de refresco del monitor con la frecuencia de renderizado de la GPU para que las imágenes se reproduzcan exactamente en el momento en que se renderizan. Como resultado, las escenas aparecen al instante, los objetos se muestran más definidos y el juego es más fluido.

Jeff Fisher, vicepresidente senior de la unidad de negocio de GeForce en NVIDIA, habla así de la nueva tecnología: “Nuestro objetivo de ofrecer la experiencia de juego más pura posible nos llevó a desarrollar G-SYNC. Es una tecnología revolucionaria que elimina los artefactos que tradicionalmente se habían interpuesto entre los jugadores y la acción. Cuando juegas con un monitor G-SYNC, ya no puedes prescindir de él”.

Desde siempre, los monitores han tenidos frecuencias de refresco fijas, normalmente 60 veces por segundo (hercios). Pero, debido a la naturaleza dinámica de los juegos, las GPU renderizan los cuadros a frecuencias variables. Como la GPU trata de sincronizarse con el monitor, suelen producirse problemas de fragmentación de las imágenes. La activación de V-SYNC (sincronización vertical) evita la fragmentación, pero aumenta la latencia y el entrecortamiento, ya que la GPU y el monitor efectúan el refresco a distinta velocidad.

G-SYNC elimina este inconveniente y sincroniza perfectamente el monitor con la GPU con independencia de las frecuencias de cuadro, lo que da lugar a una experiencia de juego impecable en el PC.

La tecnología G-SYNC incluye un módulo G-SYNC desarrollado por NVIDIA que se integra en el monitor, así como elementos de hardware y software que se incorporan a determinadas GPU con arquitectura Kepler. (La lista completa de GPU compatibles con NVIDIA G-SYNC se encuentra aquí.)

Entusiasmo entre los grandes desarrolladores de juegos
Los desarrolladores de juegos han acogido con entusiasmo la nueva tecnología, que permitirá ejecutar sus títulos sin molestias.

“Los enormes avances introducidos en la capacidad de renderizado de la GPU en la última década han ayudado a los desarrolladores y artistas a crear escenas y mundos 3D cada vez más complejos. Pero, incluso en el mejor PC, la ilusión de realidad se ve truncada por los artefactos y cortes de imagen. G-SYNC resuelve este eterno problema con elegancia. Las imágenes en las pantallas dotadas de G-SYNC son asombrosamente estables y naturales. G-SYNC mejora, literalmente, todo el aspecto del juego”.
--Tim Sweeney, fundador de EPIC Games

“La tecnología G-SYNC de NVIDIA representa una solución innovadora a una vieja limitación de los gráficos de ordenador y por fin nos permite ver imágenes perfectas con la mínima latencia posible. El resultado hace que podamos interpretar esos gráficos como auténticas imágenes en continuo movimiento, lo que proporciona una sensación fantástica. ¡Hay que verlo para creerlo!”.
--Johan Andersson, director técnico de DICE

“G-Sync es el ingrediente que faltaba para poner cada bit de potencia de la GPU a tu servicio y crear una experiencia visual muy superior, sin problemas de fragmentación ni entrecortamiento”.
--John Carmack, cofundador de iD Software

Planes de implementación por parte de los fabricantes de monitores
Muchos de los principales fabricantes de monitores ya han incluido G-SYNC en sus planes de diseño de productos de 2014. Entre los primeros que han anunciado su intención de implementar la tecnología se encuentran ASUS, BenQ, Philips y ViewSonic.

“ASUS trabaja para ofrecer la mejor experiencia de juego a través de la innovación. Estamos muy satisfechos de incluir la nueva tecnología G-SYNC de NVIDIA en muchos de nuestros monitores dirigidos al mercado de los juegos. Estamos seguros de que impresionará a los jugadores con ese enorme salto en suavidad de imagen y calidad visual”.
--Vincent Chiou, vicepresidente asociado de la unidad de negocio de monitores de ASUS.

“Estamos muy contentos de integrar G-SYNC en nuestros monitores profesionales para juego. La combinación de ambos ofrecerá a los jugadores una ventaja competitiva considerable y sin duda llevará la experiencia de juego en el PC a otro nivel “.
--Peter Chen, director general del Centro de tecnología de productos de BenQ.

“Estamos impacientes por empezar a comercializar monitores Philips con tecnología G-SYNC para jugadores. Estamos convencidos de que cualquiera al que le importe la experiencia de juego va a querer uno”.
--Sean Shih, director global de marketing de producto, TPV Technology

“Todo el mundo en ViewSonic está entusiasmado con la calidad visual que proporciona G-SYNC. Estamos deseando aplicar esta tecnología a nuestra magnífica línea de pantallas de juego y profesionales”.
-- Jeff Volpe, presidente de ViewSonic

Los fabricantes e integradores de sistemas también se muestran entusiasmados
Numerosos fabricantes e integradores de sistemas también tienen previsto ofrecer la tecnología G-SYNC en los próximos meses. Entre ellos se incluyen Digital Storm, EVGA, Falcon Northwest, Overlord y Scan Computers.

“Mirar a G-SYNC es mirar al futuro de las pantallas. Tener que volver a un monitor normal después de haber visto el otro te molesta. Es así de bueno”.
-- Kelt Reeves, fundador y CEO de Falcon Northwest.

“G-SYNC es una tecnología revolucionaria que proporcionará una experiencia de juego impecable. Estamos enormemente satisfechos de que nuestros clientes puedan disfrutar de una calidad de juego increíble con cualquier frecuencia de cuadro sin artefactos ni entrecortamiento de imágenes”.
--Elan Raja III, cofundador de Scan Computers."
Otra tecnologia propietaria de Nvidia....
Pues no veo diferencia.... pero a ver si sacan algo los de AMD y empieza a difundirse por que para algo servirá.... Y alguna mejora aportará.
Dorigon escribió:No noto la diferencia...


Los videos estan capados a menos de 30FPS y la diferencia se nota menos de lo que es realmente, el de la izquierda cuando gira la pantalla es mucho menos fluido que el de la derecha y de nota bastante, el de la izquierda parece que incluso funcione a saltos entre fotogramas

Lo mas impresionante es que han conseguido esa fluidez (cuando un video de youtube no muestra mas de 30fps), en realidad lo que hace es sincronizar lo que envia la grafica con lo que muestra la pantalla

Los que no son capaces de notar si un juego funciona a 10 o 30fps, o mas, no creo que noten nada la verdad XD XD

ahora solo falta que inventen uno que elimine los dientes de sierra y el framerate inestable


gracias a este sistema no haria falta usar vsync y el ahorro serviria para tener mas framerate
Benzo escribió:. Este problema se puede salvar activando la sincronización vertical o V-Sync, pero esta opción puede afectar al rendimiento gráfico causando latencia y stuttering.


Genial. Tengo un Viewsonic y me da que voy a pasar a otro Viewsonic con G-Sync (si esque no puedo añadirselo al mio).

Ademas de que si no hay que activar el V-sync, tal vez se solucion los problemas de micro-stuttering que sucede en configuraciones SLI.

Porque tengo una 660 TI y pensaba pillar una segunda para SLI (que es mas rendimiento que una titan), pero el micro-stuttering me echaba un poco para atras.
Supongo que el G-sync tendra compatibilidad y gestionara correctamente los fotogramas procesados en SLI con la frecuencia de pantalla dejando una fluidez absoluta, por lo que aparte de eliminar los bloqueos del V-sync, ganariamos en estabilidad en soluciones multigrafica (o eso supongo, tampoco es que esté confirmado, pero me parece obvio).


Voy a investigar un poco mas sobre el tema.
Pues no he notado nada... lo más cachondo es que habrá alguien que lo compre y diga: "Ohhhhh.... cómo se nota el cambiooooo" :-|

Salu2. :cool:
millenium escribió:Pues no he notado nada... lo más cachondo es que habrá alguien que lo compre y diga: "Ohhhhh.... cómo se nota el cambiooooo" :-|

Salu2. :cool:


Ahora solo faltan los que dicen que el ojo humano no puede captar mas de 30fps [tomaaa]
Lo malo sera que no veremos televisores G-sync, ni proyectores....
Creo que los que no saben lo que es el Tearing ni siquiera deberían opinar en esta noticia, sin ánimo de ofender xD

Y quitando eso, a mi me molesta mucho el tearing, pero se que a mucha gente se la pela, para mi, aliviar a la gráfica del proceso del V-sync sí es un avance.

Ojalá este sistema funcionada con todo... incluso con consolas viejas... lo que disfrutaría el Ninja Gaiden Black sin tearing [looco]
pues yo tampoco veo diferencia con este video xD
futuro mad max escribió:
millenium escribió:Pues no he notado nada... lo más cachondo es que habrá alguien que lo compre y diga: "Ohhhhh.... cómo se nota el cambiooooo" :-|

Salu2. :cool:


Ahora solo faltan los que dicen que el ojo humano no puede captar mas de 30fps [tomaaa]


Me apuesto lo que quieras a que en medio de una batalla en un shooter o en un juego de coches, no vas a estar pendiente del molesto efecto "Tearing" que te impide disfrutar de la partida, sino del tío que está disparándote desde vete a saber donde o del coche que está adelantándote.

Yo, concretamente en el vídeo que han puesto, no he apreciado nada. Quizá porque al ser un formato de vídeo no se aprecian ésos defectos de la misma forma que viendo el juego insitu en tiempo real.

No me malinterpretes, todo lo que sean mejoras me parece fantástico pero gastarse esa pasta sólo por minimizar ése problema...

Creo que activando el triple búffer con VSync el efecto prácticamente pasa desapercibido para la mayoría de los mortales.

Alguien ha comentado que con G-Sync evitamos el VSync y ganamos en FPS pero... ¿Realmente merece la pena el número de FPS que se consiguen? Cuando un PC no puede con un juego de forma fluída, por mucho que desactivemos el VSync ya sabemos lo que toca... actualizar el PC.

Salu2. :cool:
Dj_Nacho escribió:Esto lo que hace es sincronizar la frecuencia de actualización de fotogramas de la gráfica con los del monitor sin ser necesario activar el Vsync, y evitando así el input lag que tener activado el Vsync provoca. Es decir podremos jugar sin tearing y sin input lag, algo que los jugadores de PC llevamos pidiendo años... Esto pinta muy bien.

+1000000 Mejor imposible!!!!!! [oki]
Cuando arreglen los driver para mi gráfica, entonces sera cuando confíe en ellos, porque hace como 5 meses tengo los 314.22 porque los siguientes me bloquean el ordenador, pantallas azules y no soy el único...
Dj_Nacho escribió:Esto lo que hace es sincronizar la frecuencia de actualización de fotogramas de la gráfica con los del monitor sin ser necesario activar el Vsync, y evitando así el input lag que tener activado el Vsync provoca. Es decir podremos jugar sin tearing y sin input lag, algo que los jugadores de PC llevamos pidiendo años... Esto pinta muy bien.

THIS!

Incluso va a ser muy bueno para los emuladores, en algunos es insufrible el input lag y no te deja jugar bien al super mario world por poner un ejemplo.

Es demasiado bonito para ser verdad, habrá que ver en la realidad si es capaz de cambiar cada segundo la tasa de fps sin stutering. Si lo consiguen, chapó, pero no me gusta nada que no sea un standar abierto.
millenium escribió:
futuro mad max escribió:
millenium escribió:Pues no he notado nada... lo más cachondo es que habrá alguien que lo compre y diga: "Ohhhhh.... cómo se nota el cambiooooo" :-|

Salu2. :cool:


Ahora solo faltan los que dicen que el ojo humano no puede captar mas de 30fps [tomaaa]


Me apuesto lo que quieras a que en medio de una batalla en un shooter o en un juego de coches, no vas a estar pendiente del molesto efecto "Tearing" que te impide disfrutar de la partida, sino del tío que está disparándote desde vete a saber donde o del coche que está adelantándote.

Yo, concretamente en el vídeo que han puesto, no he apreciado nada. Quizá porque al ser un formato de vídeo no se aprecian ésos defectos de la misma forma que viendo el juego insitu en tiempo real.

No me malinterpretes, todo lo que sean mejoras me parece fantástico pero gastarse esa pasta sólo por minimizar ése problema...

Creo que activando el triple búffer con VSync el efecto prácticamente pasa desapercibido para la mayoría de los mortales.

Alguien ha comentado que con G-Sync evitamos el VSync y ganamos en FPS pero... ¿Realmente merece la pena el número de FPS que se consiguen? Cuando un PC no puede con un juego de forma fluída, por mucho que desactivemos el VSync ya sabemos lo que toca... actualizar el PC.

Salu2. :cool:


No necesito estar pendiente, ojala no lo notara, pero me duelen los ojos

Activar el vsync hace perder bastante rendimiento, de hecho en consola muchos juegos no usan vsync ademas de no ir ni a 30fps estables, sobre todo en ps3 mas de una vez he acabado con ardor en los ojos, en x360 no suele ser tan malo

millenium escribió:Me apuesto lo que quieras a que en medio de una batalla en un shooter o en un juego de coches, no vas a estar pendiente del molesto efecto "Tearing"


Precisamente en shoters y juegos de coches es donde mas se nota

Este sistema al sincronizar los frames da mas fluidez de imagen "en movimiento", en un sistema tradicional hay frames que se pierden y no se ven, con vsync se evita, pero se pierde mucho rendimiento, aumentando el framerate de 30fps a 60fps esos saltos de imagen tambien se notan menos, pero esto consume el doble de rendimiento

Lo dicho, la mayoria no notarian si un juego funciona a mas de 20 o 25fps, tampoco van a notar si se usa vsync o este metodo, para este gente con que un juego funcione a 20fps y subhd con reescalado todo vale [+risas]


100€ para evitar usar vsync, sin parpadeos, ni movimientos de imagen bruscos, para alguien con una grafica de 30€ no le interesa, para un gamer si
Que maravilla! aunque a mi ya no me vale porque me harté de actualizar el PC y ya casi no juego en él :(

Ya me gustaría que se pudiese usar en consolas (todas) porque el tearing en muchos juegos es insufrible (Y si, yo lo noto muchísimo, creo que es lo que más odio... prefiero menor resolución, e incluso menos fps, pero todo con V-sync)
Dorigon escribió:No noto la diferencia...


Ya somos 2...
kruzcamporro escribió:
Dorigon escribió:No noto la diferencia...


Ya somos 2...


+1

Y tampoco me propongo hacer nada por notarla. Ojos que no ven......
Foxindarian escribió:Que maravilla! aunque a mi ya no me vale porque me harté de actualizar el PC y ya casi no juego en él :(

Ya me gustaría que se pudiese usar en consolas (todas) porque el tearing en muchos juegos es insufrible (Y si, yo lo noto muchísimo, creo que es lo que más odio... prefiero menor resolución, e incluso menos fps, pero todo con V-sync)


core 2 quad 2.6@3.2ghz con grafica y HD reciclados 600€ en el 2008, en el 2011 grafica 5850 por 99€ mas envio que vi en un foro

hace unos dias he vendido mi 5850 por 90€ y me he comprado una 7850 (tocando voltate un poco) sube sin problemas a 1.1Ghz por 125+4€envio

Batlfield4 en consolas nexgen ademas de 720/30fps tienen graficos en low, me juego lo que sea que me funciona mejor en mi pc
Creo que la idea es que se incorpore al chipset de las pantallas, al igual que la mejora de movimiento (los llamados 100Hz) pues otra cosa más a incorporar. No me parece mal.
darksch escribió:la mejora de movimiento (los llamados 100Hz).


Eso no es una mejora, es interpolado y para juegos es mejor apagarlo
Esto es para verlo en persona. Francamente me parece que Nvidia a dado en el clavo con un problema que hace siglos que se sufre.

Esto es como el problema de las pulsaciones de varias teclas en el teclado, décadas después solo ha sido solucionado en una pequeña cantidad de teclados gaming bien caros, cuando debería estar solucionados en todos.

Y no digáis de mas cosas propietarias de Nvidia como algo malo. Al menos saca cosas, ¿que saca AMD? nunca avanzada nada y si lo hace es por obligación para equipararse un poco a la competencia, por lo general se limita a mas rendimiento 3D sin nada mas que eso.
Otra tecnologia a bombo y platillo . Lo mismo me equivoco pero no venden ya TV LCD y LED de 200 mhz (para 3d).? Es raro que un juego vaya a llegar a los 200 fps mas que nada porque siempre los haran mas "cargados" visualmente para que te compres una nueva grafica.
Esto me suena a otro timo de la estampita como creo que es la PHYsX.
Te pones a contar y no llegan a 20 los juegos que llevan physx. Y es que una cosa es la tecnologia y otra que los programadores hagan uso de ella que seguro que les cuesta tiempo y esfuerzo.

salu2
destroyerjjbg escribió:Otra tecnologia a bombo y platillo . Lo mismo me equivoco pero no venden ya TV LCD y LED de 200 mhz (para 3d).? Es raro que un juego vaya a llegar a los 200 fps mas que nada porque siempre los haran mas "cargados" visualmente para que te compres una nueva grafica.
Esto me suena a otro timo de la estampita como creo que es la PHYsX.
Te pones a contar y no llegan a 20 los juegos que llevan physx. Y es que una cosa es la tecnologia y otra que los programadores hagan uso de ella que seguro que les cuesta tiempo y esfuerzo.

salu2


Que tiene que ver los herzios maximos con el G-Sync? El G-Sync tiene todo el sentido del mundo incluso en solo 60fps.

Ademas, no solo existen los juegos punteros, y cada vez las graficas son mas potentes. Jugar a 120FPs a juegos del año pasado te lo hace cualquiera de la serie 670 para arriba con el pene.
Y ya algo mas antiguos de 200fps para arriba.

Y lo de physx otra burrada la que sueltas. Que haya contenido con physx en exclusividad en ciertos juegos (que ocurre de hace mogollon de años como en Sacred 2), no significa que physx no se esté usando para ganar en rendimiento.... por dios. Que por si no lo sabes, physx tambien lo peudes ejecutar con una AMD, pero software, y por tanto por CPU.
Riwer escribió:
destroyerjjbg escribió:Otra tecnologia a bombo y platillo . Lo mismo me equivoco pero no venden ya TV LCD y LED de 200 mhz (para 3d).? Es raro que un juego vaya a llegar a los 200 fps mas que nada porque siempre los haran mas "cargados" visualmente para que te compres una nueva grafica.
Esto me suena a otro timo de la estampita como creo que es la PHYsX.
Te pones a contar y no llegan a 20 los juegos que llevan physx. Y es que una cosa es la tecnologia y otra que los programadores hagan uso de ella que seguro que les cuesta tiempo y esfuerzo.

salu2



Que tiene que ver los herzios maximos con el G-Sync? El G-Sync tiene todo el sentido del mundo incluso en solo 60fps.


Y lo de physx otra burrada la que sueltas. Que haya contenido con physx en exclusividad en ciertos juegos (que ocurre de hace mogollon de años como en Sacred 2), no significa que physx no se esté usando para ganar en rendimiento.... por dios. Que por si no lo sabes, physx tambien lo peudes ejecutar con una AMD, pero software, y por tanto por CPU.


macho tu cuando veas lo mismo me equivoco no acudas como un troll a poner de ignorante a la gente y menos para quedar como lo que eres.
Riwer escribió:Que tiene que ver los herzios maximos con el G-Sync? El G-Sync tiene todo el sentido del mundo incluso en solo 60fps.


Se habla del g-sync para evitar el tearing o por otro lado el input lag y carga de gpu si activas el vsync.Que dicho sea de paso otro dato mas a mi favor como bombo y platillo de sobrenombre ya que tienen que comer, ya que le input lag lo puedes reducir casi a cero activando el triple buffer.

De tal manera que si tu monitor(hz) y tu tarjeta(fps) pueden ir a la misma velocidad, ni tearing ni vsync ni input lag asi que tiene que ver TODO.

Lo que segundo que espetas de burrada, ya te digo yo que pa burro otro,
Riwer escribió:no significa que physx no se esté usando para ganar en rendimiento.... por dios. Que por si no lo sabes, physx tambien lo peudes ejecutar con una AMD, pero software, y por tanto por CPU


1ºrendimiento? sabes lo que es el physx?

2ºNo chico el que no los sabes eres tu. Precisamente aunque teoricamente se pueda no puedes activar phsyx con una amd porque es propietaria de NVIDIA, que para eso se gasta la pasta en publicitarla y licenciarla, y sino diselo a todos aquellos que solo tienen grafica NVDIA para poder activar el phsyx en esos juegos.
Otra cosa es que los juegos puedan llevar efectos de fisica que no sean physx faltaria mas y no haga falta una tarjeta NVIDIA para disfrutarlos.

Lo unico que me he equivocado es que no son 20 juegos segun aegia(antiguo PHYSX), llegan a 100, pero vamos que de los nuevos de ahora 20 como mucho y cada vez menos diria yo.
En resumen un poquito de menos soberbia cuando en la opinion de alguien encuentres las palabras lo mismo me equivoco.

salu2
destroyerjjbg escribió:macho tu cuando veas lo mismo me equivoco no acudas como un troll a poner de ignorante a la gente y menos para quedar como lo que eres.

Que tiene que ver los herzios maximos con el G-Sync? El G-Sync tiene todo el sentido del mundo incluso en solo 60fps.

Se habla del g-sync para evitar el tearing o por otro lado el input lag y carga de gpu si activas el vsync.Que dicho sea de paso otro dato mas a mi favor como bombo y platillo de sobrenombre ya que tienen que comer, ya que le input lag lo puedes reducir casi a cero activando el triple buffer.

De tal manera que si tu monitor(hz) y tu tarjeta(fps) pueden ir a la misma velocidad, ni tearing ni vsync ni input lag asi que tiene que ver TODO.


Pues no, primero aprender a leer, porque primero, no he llamado ignorante a nadie, y segundo:
Que tiene que ver los herzios maximos


Los maximos no tiene NADA que ver. Ni necesitas 120 ni 200 ni 3D.
El tearing lo tienes en 60fps sin V-sync. Y si te comes tearing y te molesta lo activas, punto. Y no tiene NADA que ver los herzios maximos de tu monitor, ya que a mas framerate solo estarias traslando de manera equivalente el problema.
Lo repito, importa poco (por no decir nada) si te va a 60fps o a 300fps con el tearing y el stuttering.


destroyerjjbg escribió:Lo que segundo que espetas de burrada, ya te digo yo que pa burro otro,
Riwer escribió:no significa que physx no se esté usando para ganar en rendimiento.... por dios. Que por si no lo sabes, physx tambien lo peudes ejecutar con una AMD, pero software, y por tanto por CPU


1ºrendimiento? sabes lo que es el physx?

2ºNo chico el que no los sabes eres tu.


Primero, reporte que te llevas por falta de respeto, asi que empieza a bajar los humos.

destroyerjjbg escribió:Precisamente aunque teoricamente se pueda no puedes activar phsyx con una amd porque es propietaria de NVIDIA, que para eso se gasta la pasta en publicitarla y licenciarla, y sino diselo a todos aquellos que solo tienen grafica NVDIA para poder activar el phsyx en esos juegos.


Tengo grafica Nvidia y activo efectivamente physx en juegos, pero parece que el que no tiene mucha idea eres tu.
Acaso no sabes como muchisima gente se pone una segunda grafica, no necesaramiente potente para delegar las tareas del phyx? Si si, precisamente por rendimiento.

Y no, por mucho que lo repitas no va a ser cierto, que sea una tecnologia propetaria no significa que no puedas ejecutar PHYX POR C-P-U.
Y si no sabes como te informas, porque puedes hacerlo incluso en juegos recientes como activar Phyx en Borderlands 2 con una AMD.

destroyerjjbg escribió:Otra cosa es que los juegos puedan llevar efectos de fisica que no sean physx faltaria mas y no haga falta una tarjeta NVIDIA para disfrutarlos.

Ya te he respondido a esto.

destroyerjjbg escribió:Lo unico que me he equivocado es que no son 20 juegos segun aegia(antiguo PHYSX), llegan a 100, pero vamos que de los nuevos de ahora 20 como mucho y cada vez menos diria yo.
En resumen un poquito de menos soberbia cuando en la opinion de alguien encuentres las palabras lo mismo me equivoco.

salu2


Aplicamente el cuento majo, que encima de ir de flipado estas patinando.
sigo preguntandote

sabes que es el tearing?

y el shuttering? Porque no se que tiene que ver el shutering cuando se esta hablando de tearing [carcajad] . Yo creo que tienes un cacao mental y sueltas lo primero que se te viene a la cabeza.

y physx?


aunque tu digas que lo activas en borderlands2 por el metodo juanpalomo(habria que verlo), ya me diras que haces en el resto de juegos.

reporta reporta

salu2
destroyerjjbg escribió:sigo preguntandote

sabes que es el tearing?

y physx?

aunque tu digas que lo activas en borderlands2 por el metodo juanpalomo(habria que verlo), ya me diras que haces en el resto de juegos.

reporta reporta

salu2


Por lo visto el que no lo sabes eres tu. Porque puedes tener tearing a 45fps (de hecho es lo mas seguro que te ocurra sin V-sync)

Pero puesto que te veo perdido, te lo explicaré.
El tearing no es mas que desincronizacion entre el framearte y la tasa de refresco, INDEPENDIENTEMENTE DE CUALES SEAN SUS VALORES.
Entiendes? importa cero si tienes un monitor de 120hz o ejecutas juegos a 400fps, la desincronizacion te cortara los fotogramas (tearing).
93 respuestas
1, 2